SlideShare a Scribd company logo
Моделирование гуманитарных процессов "Небесное яблоко действительно должно быть совершенным, - ответил Насреддин, - но, учитывая твои нынешние способности вообще и способность судить о небесном яблоке в частности, а также то, что ты, как и все мы, находишься сейчас в этом обиталище разложения, можешь считать, что ты все равно не увидел бы райское яблоко в ином виде"  (история про Ходжу Насреддина) Лекция 3
Что это такое?
I. Термодинамическая энтропия Рудольф Клаузиус Понятие энтропии было впервые введено в 1865 году Рудольфом Клаузиусом. Он определил изменение энтропии термодинамической системы при обратимом процессе как отношение изменения общего количества тепла δ Q   к величине абсолютной температуры T: Рудольф Клаузиус дал величине S имя «энтропия», происходящее от греческого слова τρoπή, «изменение» (изменение, превращение, преобразование). Данное равенство относится к изменению энтропии, не определяя полностью саму энтропию. где  dS  — приращение (дифференциал) энтропии, а δ Q  — бесконечно малое приращение количества теплоты.
Термодинамическая энтропия ,[object Object],[object Object],[object Object]
II.  Информационная энтропия Клод Шеннон Шеннон предложил в качестве параметра распределения с плотностью  , характеризующего степень его “неопределенности” использовать величину, вычисляемую по формуле:
Информационная энтропия ,[object Object],В дискретном случае Таким образом, энтропия события  x  является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы (основание 2 выбрано только для удобства работы с информацией, представленной в двоичной форме).
Информационная энтропия Шеннон предположил, что  прирост информации равен утраченной неопределённости , и задал требования к её измерению: 1. мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции; 2. в случае, когда все варианты равновероятны, увеличение количества вариантов должно всегда увеличивать значение функции; 3. должна быть возможность сделать выбор в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.
Эксперимент с монетами P=1/2 P=1/2 P=1/2 P=1/4 P=1/4 1 1 3 3
III.  Пример вычисления Задача :  Предположим, что вы  перед экзаменом выучили все билеты кроме 1 из 32. Допустим, что это соответствует действительности. Тогда можно предположить, что вероятность того, что вы сдадите экзамен равна 31/32, а не сдадите – 1/32. Предположим, что преподаватель после очередного студента его билет не возвращает в общую стопку, из которой вы берете билет. Пусть теперь перед вами в аудиторию зашел ваш товарищ и взял некоторый билет. После выхода из аудитории он сообщает вам, что вытянул билет, который a) вы не знали, б) вы знали. Оценим количество информации, которое вы получили от вашего товарища в каждом из случаев.  Часто количество информации оценивают в  битах . Эта величина в теории информации, есть приращение энтропии, вычисляемой по основанию 2. В общем случае базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода.  Например энтропия броска монеты -2(0. 5log 2 0.5 )  = 1  бит.
Пример вычисления энтропии ,[object Object],После получения сообщения а)  энтропия  H 1  стала равна 0. Поэтому количество полученной информации равно  0.2  бита. В случае же б)  Как видно, энтропия увеличилась. Следовательно, вы получили отрицательную информацию  I=H 0 -H 1 =0.2006-0.2056=-0.05  бит, которая увеличила вашу неопределенность в сдаче экзамена. Если взять величину информации по модулю, то можно сказать, что в первом случае вы получили в двадцать раз больше информации, чем во втором случае, да еще и с отрицательным знаком во втором случае.
Демон Максвелла Мысленный эксперимент 1867 года, а также его главный персонаж — гипотетическое разумное существо микроскопического размера, придуманное Джеймсом Максвеллом с целью проиллюстрировать кажущийся парадокс Второго начала термодинамики. Эксперимент состоит в следующем: предположим, сосуд с газом  разделён непроницаемой перегородкой на две части: правую и левую. В перегородке отверстие с устройством (так называемый демон Максвелла), которое позволяет пролетать быстрым (горячим) молекулам газа только из левой части сосуда в правую, а медленным (холодным) молекулам — только из правой части сосуда в левую. Тогда, через большой промежуток времени, горячие молекулы окажутся в правом сосуде, а холодные — в левом.
Связь термодинамической энтропии и количества информации
Связь термодинамической энтропии и количества информации Обнаружение частицы в одной из половин сосуда меняет информацию о частице Процесс измерения уменьшает энтропию частицы и ровно настолько же  увеличивает информацию о ней.
Энтропия и распределения с максимальной неопределенностью Рассмотрим все возможные распределения вероятностей дискретной случайной величины, принимающей конечное число значений   X 1  , X 2  , … , X N при фиксированном  N Обозначим вероятности появления соответствующих зна­чений случайной величины через  p 1 ,p 2 ,…,p N.   Покажем, что распределением с мак­симальной неопределенностью, характеризуемой энтропией является равно­мерное распределение для которого  p 1 =p 2 =…=p N =1/N энтропия такой случайной величины равна  H=- Σ p i ln p i Кроме этого все возможные допустимые положительные числа  должны удовле­творять условию нормировки .
Энтропия и распределения с максимальной неопределенностью Задача отыскания распределения дискретной случайной величины с  заданным  числом исходов  N  и максимально возможным значением энтропии сводится к отысканию экстремума  H  при условии нормировки  Эту задачу решаем с помощью  метода множителей Лагранжа. где  λ  - множитель Лагранжа. Дифференцируя по каждому  p i   в отдельности, получаем систему уравнений следующего вида Отсюда находим: Значение  λ  определяется из условия нормировки. В результате получаем:
Энтропия и распределения с максимальной неопределенностью ,[object Object],[object Object],[object Object],Поэтому наиболее часто встречающееся в Природе распределение это нормальное или гауссово распределение. Из всех других законов распределения с фиксированной дисперсией  оно обладает наибольшей энтропией и следовательно реализуется чащу других.
Энтропийная модель распределения миграционных потоков В городе имеется  n  районов,  N i  - число жителей в  i -том районе,  W j  - число работающих в  j -том районе,  X ij  - число живущих в  i -том районе, но работающих  в  j -том районе. Величины  X ij   представляют собой по сути поток пассажиров из  i -того района  в  j -й во время проезда на работу. Эти потоки удовлетворяют  уравнениям: Задача заключается в вычислении матрицы  X ij , наиболее вероятной с точки зрения усредненных наблюдений за потоками.
Энтропийная модель распределения миграционных потоков Обозначим вероятности того, что наугад взятый человек в городе живет в  i -том районе, а работает  в  j -том. через  p ij  . В этом случае величины  P i  и  Q j : представляют собой вероятности того, что наугад взятый житель живет в  i -том районе ( P i ) и работает  в  j -том районе ( Q j ) соответственно. При этом очевидно, что
Энтропийная модель распределения миграционных потоков Для того чтобы гарантировать независимость результатов от наши собственных суждений. Требуется найти максимум величины Согласно методу множителей Лагранжа, условный экстремум  эквивалентен безусловному экстремуму следующей функции Дифференцируя данную функцию по  p ij  находим необходимые условия ее экстремума: Отсюда получаем ответ Учитывая условия для  P i   и  Q j   находим, что матрица вероятностей  может быть представлена в виде:
Закон Ципфа Закон Ципфа (Зипфа)  — эмпирическая закономерность распределения частоты слов естественного языка: если все слова языка (или просто достаточно длинного текста) упорядочить по убыванию частоты их использования, то частота n-го слова в таком списке окажется приблизительно обратно пропорциональной его порядковому номеру n (так называемому рангу  этого слова, см. шкала порядка).  Например второе по используемости слово встречается примерно в два раза реже, чем первое, третье — в три раза реже, чем первое, и т. д. Джон Ципф n  – частота появления слова в  тексте.  l  –  число слогов (букв) в  слове.
Литература ,[object Object],[object Object]

More Related Content

Similar to моделирование гуманитарных процессов. Лекция 4

Lecture 10 Математика информации
Lecture 10 Математика информацииLecture 10 Математика информации
Lecture 10 Математика информации
Vladimir Tcherniak
 
Предикаты. Основные понятия, связанные с предикатами
Предикаты. Основные понятия, связанные с предикатамиПредикаты. Основные понятия, связанные с предикатами
Предикаты. Основные понятия, связанные с предикатами
Ильдус Ситдиков
 
В.С.Крикоров-Единый Космос 1
В.С.Крикоров-Единый Космос 1В.С.Крикоров-Единый Космос 1
В.С.Крикоров-Единый Космос 1Yury Podusov
 
Голубятников Сергей
Голубятников СергейГолубятников Сергей
Голубятников Сергей
Школьная лига РОСНАНО
 
матемтик анализ лекц№ 2
матемтик анализ лекц№ 2матемтик анализ лекц№ 2
матемтик анализ лекц№ 2narangerelodon
 
математик анализ хичээлийн лекц № 2
математик анализ хичээлийн лекц № 2математик анализ хичээлийн лекц № 2
математик анализ хичээлийн лекц № 2narangerelodon
 
Pres 09 4
Pres 09 4Pres 09 4
Pres 09 4
zhvictorm
 
Коллоидная химия II часть (рус)
Коллоидная химия II часть (рус)Коллоидная химия II часть (рус)
Коллоидная химия II часть (рус)
kassy2003
 
Квантовая физика
Квантовая физикаКвантовая физика
Квантовая физикаKobra-pipka
 
термодинамика 2
термодинамика 2термодинамика 2
термодинамика 2Yerin_Constantine
 
гдз. физика 11кл громов 2002 -128с
гдз. физика 11кл громов 2002 -128сгдз. физика 11кл громов 2002 -128с
гдз. физика 11кл громов 2002 -128с
Иван Иванов
 
курсовая работа
курсовая работакурсовая работа
курсовая работа
victoria_4
 
Лекция 11. Элементы релятивистской механики (часть 2)
Лекция 11. Элементы релятивистской механики (часть 2)Лекция 11. Элементы релятивистской механики (часть 2)
Лекция 11. Элементы релятивистской механики (часть 2)
kotikes
 

Similar to моделирование гуманитарных процессов. Лекция 4 (20)

лекция 5
лекция 5лекция 5
лекция 5
 
Lecture 10 Математика информации
Lecture 10 Математика информацииLecture 10 Математика информации
Lecture 10 Математика информации
 
5 sl sign
5 sl sign5 sl sign
5 sl sign
 
Предикаты. Основные понятия, связанные с предикатами
Предикаты. Основные понятия, связанные с предикатамиПредикаты. Основные понятия, связанные с предикатами
Предикаты. Основные понятия, связанные с предикатами
 
В.С.Крикоров-Единый Космос 1
В.С.Крикоров-Единый Космос 1В.С.Крикоров-Единый Космос 1
В.С.Крикоров-Единый Космос 1
 
Голубятников Сергей
Голубятников СергейГолубятников Сергей
Голубятников Сергей
 
матемтик анализ лекц№ 2
матемтик анализ лекц№ 2матемтик анализ лекц№ 2
матемтик анализ лекц№ 2
 
математик анализ хичээлийн лекц № 2
математик анализ хичээлийн лекц № 2математик анализ хичээлийн лекц № 2
математик анализ хичээлийн лекц № 2
 
3
33
3
 
Pres 09 4
Pres 09 4Pres 09 4
Pres 09 4
 
Коллоидная химия II часть (рус)
Коллоидная химия II часть (рус)Коллоидная химия II часть (рус)
Коллоидная химия II часть (рус)
 
fizika
fizikafizika
fizika
 
Квантовая физика
Квантовая физикаКвантовая физика
Квантовая физика
 
Diskretn analiz
Diskretn analizDiskretn analiz
Diskretn analiz
 
Diskretn analiz
Diskretn analizDiskretn analiz
Diskretn analiz
 
термодинамика 2
термодинамика 2термодинамика 2
термодинамика 2
 
гдз. физика 11кл громов 2002 -128с
гдз. физика 11кл громов 2002 -128сгдз. физика 11кл громов 2002 -128с
гдз. физика 11кл громов 2002 -128с
 
курсовая работа
курсовая работакурсовая работа
курсовая работа
 
Лекция 11. Элементы релятивистской механики (часть 2)
Лекция 11. Элементы релятивистской механики (часть 2)Лекция 11. Элементы релятивистской механики (часть 2)
Лекция 11. Элементы релятивистской механики (часть 2)
 
8
88
8
 

More from Andrei V, Zhuravlev

Университеты северо-востока США.
Университеты северо-востока США. Университеты северо-востока США.
Университеты северо-востока США.
Andrei V, Zhuravlev
 
Асперитас
АсперитасАсперитас
Асперитас
Andrei V, Zhuravlev
 
Конференция отчет
Конференция отчетКонференция отчет
Конференция отчет
Andrei V, Zhuravlev
 
практикум в сош №48 отчет
практикум в сош №48 отчетпрактикум в сош №48 отчет
практикум в сош №48 отчет
Andrei V, Zhuravlev
 
Влияние космоса
Влияние космосаВлияние космоса
Влияние космоса
Andrei V, Zhuravlev
 
Закон Всемирного Тяготения 2015 СОШ 66
Закон Всемирного Тяготения 2015 СОШ 66Закон Всемирного Тяготения 2015 СОШ 66
Закон Всемирного Тяготения 2015 СОШ 66
Andrei V, Zhuravlev
 
Идеи Роджера Пенроуза
Идеи Роджера ПенроузаИдеи Роджера Пенроуза
Идеи Роджера Пенроуза
Andrei V, Zhuravlev
 
Космонавтика
КосмонавтикаКосмонавтика
Космонавтика
Andrei V, Zhuravlev
 
Космофизический практикум
Космофизический практикумКосмофизический практикум
Космофизический практикум
Andrei V, Zhuravlev
 
Телескоп: исследовательская работа
Телескоп: исследовательская  работаТелескоп: исследовательская  работа
Телескоп: исследовательская работа
Andrei V, Zhuravlev
 
ивушка самара 2014
ивушка самара 2014ивушка самара 2014
ивушка самара 2014
Andrei V, Zhuravlev
 
НИТИ криптография лекция 2
НИТИ криптография лекция 2НИТИ криптография лекция 2
НИТИ криптография лекция 2Andrei V, Zhuravlev
 
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕ
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕНЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕ
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕAndrei V, Zhuravlev
 

More from Andrei V, Zhuravlev (20)

Университеты северо-востока США.
Университеты северо-востока США. Университеты северо-востока США.
Университеты северо-востока США.
 
Асперитас
АсперитасАсперитас
Асперитас
 
Конференция отчет
Конференция отчетКонференция отчет
Конференция отчет
 
практикум в сош №48 отчет
практикум в сош №48 отчетпрактикум в сош №48 отчет
практикум в сош №48 отчет
 
Влияние космоса
Влияние космосаВлияние космоса
Влияние космоса
 
Закон Всемирного Тяготения 2015 СОШ 66
Закон Всемирного Тяготения 2015 СОШ 66Закон Всемирного Тяготения 2015 СОШ 66
Закон Всемирного Тяготения 2015 СОШ 66
 
Идеи Роджера Пенроуза
Идеи Роджера ПенроузаИдеи Роджера Пенроуза
Идеи Роджера Пенроуза
 
Космонавтика
КосмонавтикаКосмонавтика
Космонавтика
 
Космофизический практикум
Космофизический практикумКосмофизический практикум
Космофизический практикум
 
Телескоп: исследовательская работа
Телескоп: исследовательская  работаТелескоп: исследовательская  работа
Телескоп: исследовательская работа
 
ивушка самара 2014
ивушка самара 2014ивушка самара 2014
ивушка самара 2014
 
НИТИ криптография лекция 2
НИТИ криптография лекция 2НИТИ криптография лекция 2
НИТИ криптография лекция 2
 
улгу крипто
улгу криптоулгу крипто
улгу крипто
 
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕ
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕНЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕ
НЕЛОКАЛЬНОСТЬ В КВАНТОВОЙ ФИЗИКЕ
 
Digest 018-new
Digest 018-newDigest 018-new
Digest 018-new
 
Digest 018
Digest 018Digest 018
Digest 018
 
Digest 017
Digest 017Digest 017
Digest 017
 
Digest 016
Digest 016Digest 016
Digest 016
 
Digest 015f-new
Digest 015f-newDigest 015f-new
Digest 015f-new
 
бак церн
бак цернбак церн
бак церн
 

моделирование гуманитарных процессов. Лекция 4

  • 1. Моделирование гуманитарных процессов "Небесное яблоко действительно должно быть совершенным, - ответил Насреддин, - но, учитывая твои нынешние способности вообще и способность судить о небесном яблоке в частности, а также то, что ты, как и все мы, находишься сейчас в этом обиталище разложения, можешь считать, что ты все равно не увидел бы райское яблоко в ином виде" (история про Ходжу Насреддина) Лекция 3
  • 3. I. Термодинамическая энтропия Рудольф Клаузиус Понятие энтропии было впервые введено в 1865 году Рудольфом Клаузиусом. Он определил изменение энтропии термодинамической системы при обратимом процессе как отношение изменения общего количества тепла δ Q к величине абсолютной температуры T: Рудольф Клаузиус дал величине S имя «энтропия», происходящее от греческого слова τρoπή, «изменение» (изменение, превращение, преобразование). Данное равенство относится к изменению энтропии, не определяя полностью саму энтропию. где dS  — приращение (дифференциал) энтропии, а δ Q  — бесконечно малое приращение количества теплоты.
  • 4.
  • 5. II. Информационная энтропия Клод Шеннон Шеннон предложил в качестве параметра распределения с плотностью , характеризующего степень его “неопределенности” использовать величину, вычисляемую по формуле:
  • 6.
  • 7. Информационная энтропия Шеннон предположил, что прирост информации равен утраченной неопределённости , и задал требования к её измерению: 1. мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции; 2. в случае, когда все варианты равновероятны, увеличение количества вариантов должно всегда увеличивать значение функции; 3. должна быть возможность сделать выбор в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.
  • 8. Эксперимент с монетами P=1/2 P=1/2 P=1/2 P=1/4 P=1/4 1 1 3 3
  • 9. III. Пример вычисления Задача : Предположим, что вы перед экзаменом выучили все билеты кроме 1 из 32. Допустим, что это соответствует действительности. Тогда можно предположить, что вероятность того, что вы сдадите экзамен равна 31/32, а не сдадите – 1/32. Предположим, что преподаватель после очередного студента его билет не возвращает в общую стопку, из которой вы берете билет. Пусть теперь перед вами в аудиторию зашел ваш товарищ и взял некоторый билет. После выхода из аудитории он сообщает вам, что вытянул билет, который a) вы не знали, б) вы знали. Оценим количество информации, которое вы получили от вашего товарища в каждом из случаев. Часто количество информации оценивают в битах . Эта величина в теории информации, есть приращение энтропии, вычисляемой по основанию 2. В общем случае базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода. Например энтропия броска монеты -2(0. 5log 2 0.5 ) = 1 бит.
  • 10.
  • 11. Демон Максвелла Мысленный эксперимент 1867 года, а также его главный персонаж — гипотетическое разумное существо микроскопического размера, придуманное Джеймсом Максвеллом с целью проиллюстрировать кажущийся парадокс Второго начала термодинамики. Эксперимент состоит в следующем: предположим, сосуд с газом разделён непроницаемой перегородкой на две части: правую и левую. В перегородке отверстие с устройством (так называемый демон Максвелла), которое позволяет пролетать быстрым (горячим) молекулам газа только из левой части сосуда в правую, а медленным (холодным) молекулам — только из правой части сосуда в левую. Тогда, через большой промежуток времени, горячие молекулы окажутся в правом сосуде, а холодные — в левом.
  • 12. Связь термодинамической энтропии и количества информации
  • 13. Связь термодинамической энтропии и количества информации Обнаружение частицы в одной из половин сосуда меняет информацию о частице Процесс измерения уменьшает энтропию частицы и ровно настолько же увеличивает информацию о ней.
  • 14. Энтропия и распределения с максимальной неопределенностью Рассмотрим все возможные распределения вероятностей дискретной случайной величины, принимающей конечное число значений X 1 , X 2 , … , X N при фиксированном N Обозначим вероятности появления соответствующих зна­чений случайной величины через p 1 ,p 2 ,…,p N. Покажем, что распределением с мак­симальной неопределенностью, характеризуемой энтропией является равно­мерное распределение для которого p 1 =p 2 =…=p N =1/N энтропия такой случайной величины равна H=- Σ p i ln p i Кроме этого все возможные допустимые положительные числа должны удовле­творять условию нормировки .
  • 15. Энтропия и распределения с максимальной неопределенностью Задача отыскания распределения дискретной случайной величины с заданным числом исходов N и максимально возможным значением энтропии сводится к отысканию экстремума H при условии нормировки Эту задачу решаем с помощью метода множителей Лагранжа. где λ - множитель Лагранжа. Дифференцируя по каждому p i в отдельности, получаем систему уравнений следующего вида Отсюда находим: Значение λ определяется из условия нормировки. В результате получаем:
  • 16.
  • 17. Энтропийная модель распределения миграционных потоков В городе имеется n районов, N i - число жителей в i -том районе, W j - число работающих в j -том районе, X ij - число живущих в i -том районе, но работающих в j -том районе. Величины X ij представляют собой по сути поток пассажиров из i -того района в j -й во время проезда на работу. Эти потоки удовлетворяют уравнениям: Задача заключается в вычислении матрицы X ij , наиболее вероятной с точки зрения усредненных наблюдений за потоками.
  • 18. Энтропийная модель распределения миграционных потоков Обозначим вероятности того, что наугад взятый человек в городе живет в i -том районе, а работает в j -том. через p ij . В этом случае величины P i и Q j : представляют собой вероятности того, что наугад взятый житель живет в i -том районе ( P i ) и работает в j -том районе ( Q j ) соответственно. При этом очевидно, что
  • 19. Энтропийная модель распределения миграционных потоков Для того чтобы гарантировать независимость результатов от наши собственных суждений. Требуется найти максимум величины Согласно методу множителей Лагранжа, условный экстремум эквивалентен безусловному экстремуму следующей функции Дифференцируя данную функцию по p ij находим необходимые условия ее экстремума: Отсюда получаем ответ Учитывая условия для P i и Q j находим, что матрица вероятностей может быть представлена в виде:
  • 20. Закон Ципфа Закон Ципфа (Зипфа) — эмпирическая закономерность распределения частоты слов естественного языка: если все слова языка (или просто достаточно длинного текста) упорядочить по убыванию частоты их использования, то частота n-го слова в таком списке окажется приблизительно обратно пропорциональной его порядковому номеру n (так называемому рангу этого слова, см. шкала порядка). Например второе по используемости слово встречается примерно в два раза реже, чем первое, третье — в три раза реже, чем первое, и т. д. Джон Ципф n – частота появления слова в тексте. l – число слогов (букв) в слове.
  • 21.