2. Информация для человекаИнформация для человека –
это мера уменьшения
неопределенности знаний.
Единица количестваЕдиница количества
информации, котороеинформации, которое
содержит сообщение,содержит сообщение,
уменьшающееуменьшающее
неопределенность в дванеопределенность в два
раза.раза.
8. ВероятностьВероятность
ii - го события- го события
Pi – вероятность i-го
события – численная
мера объективной
возможности появления
этого события.
PPii ==
mm
nn
m – число
элементарных
событий,
благоприятствующих
этому событию.
n – общее число всех
элементарных
событий.
9. Объявляются оценки экзамена по
информатике (2, 3, 4 или 5).
Какое количество информации
будет нести сообщение об оценке
учащегося А, который выучил
половину билетов, и сообщение об
оценке учащегося В, который
выучил все билеты.
10. 1. Опыт показывает, что
для учащегося A все четыре
оценки (события)
равновероятны и тогда
количество информации,
которое несет сообщение
об оценке можно вычислить
по формуле Хартли:
I = LogI = Log22 NN == LogLog22 4 = 2 бит.4 = 2 бит.
Ответ:Ответ: II (А)(А)== 2 бит2 бит
11. 2. На основании опыта можно
также предположить, что для
учащегося B наиболее
вероятной оценкой является
«5». Вероятность оценки «4» в
два раза меньше, а
вероятности оценок «2» и «3»
еще в два раза меньше.
P1 = 1 / 2 P2 = 1 / 4
P3 = Р4 = 1 / 8
12. 3. Так как события
неравновероятны, воспользуемся
для подсчета количества
информации в сообщении формулой
Шеннона:
I = -(1/2*log21/2 +
1/4*log21/4 + 1/8*log21/8
+ 1/8*log21/8)
Ответ:Ответ: II (В)(В)== 1,75 бит1,75 бит
13. В непрозрачном мешочке хранятся
10 белых, 20 красных, 30 синих и
40 зеленых шариков.
Какое количество информации
будет содержать зрительное
сообщение о цвете вынутого
шарика.
Ответ:Ответ:
I =I = 1,85 бит1,85 бит
14. Какое количество вопросов
достаточно задать вашему
собеседнику, чтобы точно
определить день и месяц его
рождения?
Ответ:Ответ: 5 вопросов о дне5 вопросов о дне
4 вопроса о месяце4 вопроса о месяце