SlideShare a Scribd company logo
1 of 90
© Igor Kleiner
Школа Обработки и Анализа Данных – ШОАДик
Общество скептиков - Москва 2014
версия
просто, научно, полезно
ПАРАДОКСЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
PLEASURES OF PROBABILITY
ТРЕЙЛЕР
ЕРАЛАШ
Выпуск 45, серия 2, «На всякий случай»
http://www.youtube.com/watch?v=tez_PS3H6s0
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Длину Ленина умножить на ширину Ленина
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Вычислить интеграл по поверхности
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек выбирают в квадрате
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек выбирают в квадрате
• Сколько в среднем точек попадет в нижний треугольник?
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек, бросаются в квадрат
• Сколько в среднем точек попадет в нижний треугольник?
• Чему равна площадь нижнего треугольника?
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек, бросаются в квадрат
• Сколько в среднем точек попадет в нижний треугольник? 12
• Чему равна площадь нижнего треугольника?
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек, бросаются в квадрат
• Сколько в среднем точек попадет в нижний треугольник? 12
• Чему равна площадь нижнего треугольника? 12
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Теория вероятностей - «Метод Монте Карло»
• Большое количество случайных точек, бросаются в квадрат
• Сколько в среднем точек попадет в нижний треугольник? 12
• Чему равна площадь нижнего треугольника? 12
МЕТОД «МОНТЕ КАРЛО» ДЛЯ ВЫЧИСЛЕНИЯ
ПЛОЩАДИ
• Количество случайных точек, брошенных в квадрат и
попавших во внутрь контура, стремится (в среднем, по
вероятности) к площади контура
МЕТОД «МОНТЕ КАРЛО» ДЛЯ ВЫЧИСЛЕНИЯ
ПЛОЩАДИ
• “Дайте мне иглу и время и я вычислю пи»
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Дайте мне иглу,
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Дайте мне иглу, время
«КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?»
• Дайте мне иглу, время и Ленина
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
•
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Мать ребенка была признана виновной в убийстве
• “ Sally Clark case . Clark was a layer wrongly convicted in 1999
of the murder of her two baby sons, largely on the basis of
Meadow's evidence; her conviction was quashed in 2003 after
she had spent three years in jail.[ Sally Clark never recovered
from the experience, developed a number of serious psychiatric
problems including serious alcohol dependency and died in
2007 from alcohol poisoning
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Мать ребенка была признана виновной в убийстве
• Только для независимых событий, вероятность того, что они
оба произойдут равна произведению вероятностей
• Для зависимых событий – это не верно
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Вероятность(подозреваемый виновен при условии, что его
отпечатки пальцев совпадают с отпечатками найденными,
на месте преступления) = ?
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
+ =
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
+ =
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
• Дилемма: Искомая условная вероятность зависит от
вероятности того, что подозреваемый виновен
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
• Дилемма: Искомая условная вероятность зависит от
вероятности того, что подозреваемый виновен
• Какова вероятность, что вы виновны?
• Какова вероятность, что случайный человек виновен?
• 0.1? 0.01? 0.001?
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
• Р(подозреваемый виновен | отпечатки совпадают) = ?
• Р(А | B) = ?
• Дилемма: Искомая условная вероятность зависит от
вероятности того, что подозреваемый виновен
• Какова вероятность, что вы виновны?
• Какова вероятность, что случайный человек виновен?
• 0.1? 0.01? 0.001 - разные предпосылки дадут разные
ответы
ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ
Дилемма: Искомая условная вероятность зависит от
вероятности того, что подозреваемый виновен
Какова вероятность, что случайный человек виновен?
• 0.1? 0.01? 0.001 - разные предпосылки дадут разные
ответы
• Разные ответы приведут к разным решениям суда
ДАКТИЛОСКОПИЯ – НАУКА ИЛИ ПСЕВДОНАУКА
• Science and Pseudoscience in Law Enforcement: A User-
Friendly Primer Lilienfeld
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ГЕНЕТИКА
• Регрессия к среднему
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ГЕНЕТИКА
• Регрессия к среднему
• В среднем:
• у родителей, чей рост выше среднего, рождаются дети
чей рост ниже роста родителей
• у родителей, чей рост ниже среднего, рождаются дети
чей рост выше роста родителей
РЕГРЕССИЯ К СРЕДНЕМУ
• Следствие:
• Если получил за экзамен оценку выше средней оценки
на факультете, то возможно не стоит его пересдавать,
чтобы улучшить
РЕГРЕССИЯ К СРЕДНЕМУ
http://www.slideshare.net/igorkleiner5/8-finaltotal
СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ
• Какая из последовательностей более случайна?
• 1100010100101101010111001000100100100101110110010
10110010110010001011
• 01010111011100111000001111010100101011011001010010
011101110011111111001
СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ
• Какая из последовательностей более случайна?
• 1100010100101101010111001000100100100101110110010
10110010110010001011
• 01010111011100111000001111010100101011011001010010
011101110011111111001
СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ
• Какая из последовательностей более случайна?
• 1100010100101101010111001000100100100101110110010
10110010110010001011
• 01010111011100111000001111010100101011011001010010
011101110011111111001
• Для симметричной монеты эти последовательности
равновероятны
СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ
• Какая из последовательностей более случайна?
• 1100010100101101010111001000100100100101110110010
10110010110010001011
• 01010111011100111000001111010100101011011001010010
011101110011111111001
• Несложно доказать, что случайная последовательность
длины n, с большой вероятностью будет содержать
минимум ln(n) подрядидущих одинаковых элементов
СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ
• Несложно доказать, что случайная последовательность
длины n, с большой вероятностью будет содержать
минимум ln(n) подряд идущих одинаковых элементов
n Ln(n)
100 5
1000 7
10 000 10
1 000 000 12
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО
• Сколько, в среднем, надо купить наклеек, чтобы собрать
альбом?
• Предположим, что все наклейки одинаково равновероятны и
всего n разных наклеек.
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО
• Сколько, в среднем, надо купить наклеек, чтобы собрать
альбом?
• В среднем надо купить n*ln(n) наклеек!
n n*ln(n)
50 200
100 500
200 1060
500 3100
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО
• Сколько, в среднем, надо купить наклеек, чтобы собрать
альбом?
• В среднем надо купить n*ln(n) наклеек!
n n*ln(n)
50 200
100 500
200 1060
500 3100
МУЗЫКАЛЬНЫЙ ВОПРОС
• На диске n песен. И проигрываются они в случайном
порядке. Возможно, одна и та же песня будет проиграна
несколько раз подряд
• Сколько, в среднем, надо ждать, пока каждая песня не будет
услышана хотя бы раз?
COUPON COLLECTOR
https://www.youtube.com/watch?v=fpGrGRf9J-U
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
• В куче n пар носков, сколько надо извлечь носков, пока не
получиться пара?
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
• В куче n пар носков сколько надо извлечь носков, пока не
получиться пара? ( предположим, что все пары разные)
• Насущная проблема?
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
•
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
•
n
10 6
50 13
100 18
500 40
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА
ПЕРЕПУТАННЫХ НОСКОВ
•
МЕТОД «МОНТЕ КАРЛО»
МЕТОД «МОНТЕ КАРЛО»
•
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ
СЕМЬИ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ
СЕМЬИ
• Предположим, что вероятность того, что родится мальчик,
равна вероятности рождения девочки
• Предположим, что пол разных детей в семье, не зависит
друг от друга
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ
СЕМЬИ
• Различные типы семей
• тип а: заводят 2 детей (мм, мд, дм, дд)
• тип б: заводят ребенка до первого мальчика (м, дм, ддм,
• тип с: заводят детей, пока мальчиков не будет в два раза
больше и минимум два (мм,дмм, мдм,ддмммм, ….)
• В среднем, в каком типе семей будет больше мальчиков?
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ
СЕМЬИ
• Природу не обманешь
• Теорема: при любой стратегии останова, пропорции детей
каждого пола будут равны
• Доказательство: Равенство Вальда
• http://www.youtube.com/watch?v=mjRcGfAEdvE
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И АНАЛИЗ
ИЗОБРАЖЕНИЙ
• Обработка изображений – бурно развивающая область
компьютерных наук
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И АНАЛИЗ
ИЗОБРАЖЕНИЙ
• Обработка изображений – бурно развивающая область
компьютерных наук
• Обработка фотографий
• Распознавание лиц
• Трехмерные фотографии
• Узнавание эмоций на фото
• Ретуширование фотографий
• Поиск похожих изображений
• …
ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ
ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ
• Сложная задача
• Как определить похожесть?
• похожа текстура?
• похож сюжет изображения?
• Похожие цвета?
• Начнем с простой задачи!
ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ
• Начнем с простой задачи!
• Можно ли изображение разделить прямой линией на две
части, каждая из которых одноцветна?
ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ
• Начнем с простой задачи!
• Можно ли изображение разделить прямой линией на две
части, каждая из которых одноцветна?
ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ
• Начнем с простой задачи!
• Можно ли изображение разделить прямой линией на две
части, каждая из которых одноцветна?
НЕТ НЕТ ДА
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ЧАСТИ
• Входные данные: изображение размером 4000*4000
пикселей.
• Наивный алгоритм:
• Проверим каждый вариант разбиения изображения
прямой линией
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ЧАСТИ
• Наивный алгоритм:
• проверим каждый вариант разбиения изображения прямой
линией:
• Проблема:
• количество разбиений 6*4000*4000 = 96 миллионов
• в каждом разбиении надо проанализировать 16 миллионов
пикселей
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ЧАСТИ
• Наивный алгоритм:
• проверим каждый вариант разбиения изображения прямой
линией:
• Проблема:
• количество разбиений 6*4000*4000 = 96 миллионов
• в каждом разбиении надо проанализировать 16 миллионов
пикселей
• Всего 16 000000 * 96 000000 = 1500000 миллиардов операций
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ЧАСТИ
• Наивный алгоритм:
• проверим каждый вариант разбиения изображения прямой
линией:
• Всего 16 000000 * 96 000000 = 1500000 миллиардов операций
БЕДА
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ЧАСТИ
• Наивный алгоритм:
• Всего 16 000000 * 96 000000 = 1500000 миллиардов операций
• Можно ли быстрее?
• А можно не проверять все пиксели изображения, чтобы узнать
ответ?
РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ
МОНОХРОМНЫЕ ПОЛУПЛОСКОСТИ
• Наивный алгоритм:
• Всего 16 000000 * 96 000000 = 1500000 миллиардов операций
• Можно ли быстрее?
• А можно не проверять все пиксели изображения, чтобы узнать ответ?
ПОЧТИ МОЖНО!
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
ДВА ВИДА СЛУЧАЙНЫХ ДОКТОРОВ
• Два вида случайных докторов
• Первый: способен излечить 90% людей
• Второй: в результате лечения пациент выздоравливает с
вероятностью 0.9
• Какой врач лучше?
ДВА ВИДА СЛУЧАЙНЫХ ДОКТОРОВ
• Два вида случайных докторов
• Первый: способен излечить 90% людей
• Второй: в результате лечения пациент выздоравливает с
вероятностью 0.9
• Какой врач лучше?
• Второй лучше, так как, если он не справится – дадим ему
еще шанс.
ДВА ВИДА СЛУЧАЙНЫХ АЛГОРИТМОВ
• Два вида случайных алгоритмов
1. Возвращает правильный ответ лишь на 90% входных
данных
2. На любых входных данных возвращает правильный
ответ с вероятностью 0.9
• Какой алгоритм лучше?
ВЕРНЕМСЯ К ИЗОБРАЖЕНИЯМ
•
АНАЛИЗ ИЗОБРАЖЕНИЙ СЛУЧАЙНЫЙ
АЛГОРИТМ
• Вместо 1500000 миллиардов операций (количество операций
зависит от размера изображений), достаточно 200 000 операций
(не зависит от размера изображений)
• Выигрыш в 15 000 000 000 раз.
• Детали: “Property testing for image segmentation”
• ­СУБЛИНЕЙНЫЙ АЛГОРИТМ АНАЛИЗА ИЗОБРАЖЕНИЙ С
ПОМОЩЬЮ ТЕХНИКИ ТЕСТИРОВАНИЯ СВОЙСТВ
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ
• Путешественник находится в замкнутом огромном
лабиринте без выхода
• Все комнаты лабиринта выглядят одинаково
• Известно, что в лабиринте n комнат
• Цель: определить момент, когда путешественник побывал
во всех комнатах
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ
• Цель: определить момент, когда путешественник побывал
во всех комнатах
• Решение: обходим лабиринт с помощью известного
алгоритма, каждую новую комнату помечаем краской
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ
• Цель: определить момент, когда путешественник побывал
во всех комнатах
• Решение: обходим лабиринт с помощью известного
алгоритма, каждую новую комнату помечаем краской
• Проблемы: нет краски, комнаты одинаковы, помечать
нельзя
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ
•
ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ
•
СЛУЧАЙНОЕ БЛУЖДАНИЕ
• Случайное блуждание на прямой
• на каждом этапе с вероятностью 0.5 можно сделать шаг
вправо или с такой же вероятностью шаг влево
СЛУЧАЙНОЕ БЛУЖДАНИЕ
• Случайное блуждание на прямой
• на каждом этапе с вероятностью 0.5 можно сделать шаг
вправо или с такой же вероятностью шаг влево
• Какова вероятность, что два человека встретятся?
СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПРЯМОЙ
Какова вероятность влюбленным встретиться, случайно
блуждая на прямой?
Вероятность равна 1
Но среднее время до встречи равно бесконечности
СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПЛОСКОСТИ
Какова вероятность влюбленным встретиться, случайно
блуждая на плоскости?
СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПЛОСКОСТИ
Какова вероятность влюбленным встретиться, случайно
блуждая на плоскости?
Вероятность равна 1
Но среднее время до встречи равно бесконечности
СЛУЧАЙНОЕ БЛУЖДАНИЕ В ТРЕХМЕРНОМ
ПРОСТРАНСТВЕ
Какова вероятность влюбленным встретиться, случайно
блуждая в 3D?
Вероятность меньше 1
СЛУЧАЙНОЕ БЛУЖДАНИЕ В ТРЕХМЕРНОМ
ПРОСТРАНСТВЕ
ВЫВОДЫ:
• Многомерные существа очень одиноки
• Не надо случайно блуждать в поисках счастья
• рассказ «Трансцендентное одиночество»
• Random Walks (Stochastic Processes)
• Random walks on electrical networks
• Шекли «обмен разумом»
ЗА КАДРОМ
• Научный эксперимент
• Формула расчета цены опциона
• Игра в казино - мартингал
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
• Теория вероятностей
• Математическая статистика
• Случайные процессы
• Дисперсионный анализ
• Регрессионный анализ
• Стохастическое программирование
• Симуляция
• Искусственный интеллект
• Анализ данных
БЛАГОДАРНОСТИ
• Клейнер Надежда
• Гольцман Александр
• Заславский Эдуард
• Бородин Захар
• Невеев Александр
• Алферов Кирилл

More Related Content

More from Igor Kleiner

תכנות דינמי הרצאה 4
תכנות דינמי הרצאה 4תכנות דינמי הרצאה 4
תכנות דינמי הרצאה 4Igor Kleiner
 
שאלות לתרגול עצמי
שאלות לתרגול עצמישאלות לתרגול עצמי
שאלות לתרגול עצמיIgor Kleiner
 
פתרון תרגיל 3
פתרון תרגיל 3פתרון תרגיל 3
פתרון תרגיל 3Igor Kleiner
 
מבוא לתכנות מדעי: פייתון הרצאה 13
מבוא לתכנות מדעי: פייתון הרצאה 13מבוא לתכנות מדעי: פייתון הרצאה 13
מבוא לתכנות מדעי: פייתון הרצאה 13Igor Kleiner
 
תכנות מדעי פייתון: הרצאה 12: סיבוכיות
תכנות מדעי פייתון: הרצאה 12: סיבוכיותתכנות מדעי פייתון: הרצאה 12: סיבוכיות
תכנות מדעי פייתון: הרצאה 12: סיבוכיותIgor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמי
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמימבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמי
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמיIgor Kleiner
 
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעה
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעהתכנות מדעי: פייתון: הרצאה 10: : תחום הכרעה
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעהIgor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017Igor Kleiner
 
תכנות מדעי: פייתון: הרצאה 8: 2017
תכנות מדעי: פייתון: הרצאה 8:  2017תכנות מדעי: פייתון: הרצאה 8:  2017
תכנות מדעי: פייתון: הרצאה 8: 2017Igor Kleiner
 
תכנות מדעי: פייתון : הרצאה 7: 2017
תכנות מדעי: פייתון : הרצאה 7: 2017תכנות מדעי: פייתון : הרצאה 7: 2017
תכנות מדעי: פייתון : הרצאה 7: 2017Igor Kleiner
 
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימות
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימותתכנות מדעי: פייתון: הרצאה 6: קבצים, רשימות
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימותIgor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017Igor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017Igor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאות
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאותמבוא לתכנות מדעי: פייתון: הרצאה 3: לולאות
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאותIgor Kleiner
 
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017Igor Kleiner
 
פייתון: הרצאה 1
פייתון: הרצאה 1פייתון: הרצאה 1
פייתון: הרצאה 1Igor Kleiner
 
למידה ממוכנת פגישה 8
למידה ממוכנת פגישה 8 למידה ממוכנת פגישה 8
למידה ממוכנת פגישה 8 Igor Kleiner
 
מערכות לומדות פגישה 7-1 יער אקראי
מערכות לומדות פגישה 7-1 יער אקראימערכות לומדות פגישה 7-1 יער אקראי
מערכות לומדות פגישה 7-1 יער אקראיIgor Kleiner
 
מערכות לומדות תרגול 3 עצים
מערכות לומדות תרגול 3 עציםמערכות לומדות תרגול 3 עצים
מערכות לומדות תרגול 3 עציםIgor Kleiner
 
מערכות לומדות פגישה 6
מערכות לומדות פגישה 6מערכות לומדות פגישה 6
מערכות לומדות פגישה 6Igor Kleiner
 

More from Igor Kleiner (20)

תכנות דינמי הרצאה 4
תכנות דינמי הרצאה 4תכנות דינמי הרצאה 4
תכנות דינמי הרצאה 4
 
שאלות לתרגול עצמי
שאלות לתרגול עצמישאלות לתרגול עצמי
שאלות לתרגול עצמי
 
פתרון תרגיל 3
פתרון תרגיל 3פתרון תרגיל 3
פתרון תרגיל 3
 
מבוא לתכנות מדעי: פייתון הרצאה 13
מבוא לתכנות מדעי: פייתון הרצאה 13מבוא לתכנות מדעי: פייתון הרצאה 13
מבוא לתכנות מדעי: פייתון הרצאה 13
 
תכנות מדעי פייתון: הרצאה 12: סיבוכיות
תכנות מדעי פייתון: הרצאה 12: סיבוכיותתכנות מדעי פייתון: הרצאה 12: סיבוכיות
תכנות מדעי פייתון: הרצאה 12: סיבוכיות
 
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמי
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמימבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמי
מבוא לתכנות מדעי: פייתון: הרצאה 11: דבגינג + תכנות דינמי
 
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעה
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעהתכנות מדעי: פייתון: הרצאה 10: : תחום הכרעה
תכנות מדעי: פייתון: הרצאה 10: : תחום הכרעה
 
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 9: 2017
 
תכנות מדעי: פייתון: הרצאה 8: 2017
תכנות מדעי: פייתון: הרצאה 8:  2017תכנות מדעי: פייתון: הרצאה 8:  2017
תכנות מדעי: פייתון: הרצאה 8: 2017
 
תכנות מדעי: פייתון : הרצאה 7: 2017
תכנות מדעי: פייתון : הרצאה 7: 2017תכנות מדעי: פייתון : הרצאה 7: 2017
תכנות מדעי: פייתון : הרצאה 7: 2017
 
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימות
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימותתכנות מדעי: פייתון: הרצאה 6: קבצים, רשימות
תכנות מדעי: פייתון: הרצאה 6: קבצים, רשימות
 
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 5: 2017
 
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 4: 2017
 
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאות
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאותמבוא לתכנות מדעי: פייתון: הרצאה 3: לולאות
מבוא לתכנות מדעי: פייתון: הרצאה 3: לולאות
 
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017
מבוא לתכנות מדעי: פייתון: הרצאה 2: 2017
 
פייתון: הרצאה 1
פייתון: הרצאה 1פייתון: הרצאה 1
פייתון: הרצאה 1
 
למידה ממוכנת פגישה 8
למידה ממוכנת פגישה 8 למידה ממוכנת פגישה 8
למידה ממוכנת פגישה 8
 
מערכות לומדות פגישה 7-1 יער אקראי
מערכות לומדות פגישה 7-1 יער אקראימערכות לומדות פגישה 7-1 יער אקראי
מערכות לומדות פגישה 7-1 יער אקראי
 
מערכות לומדות תרגול 3 עצים
מערכות לומדות תרגול 3 עציםמערכות לומדות תרגול 3 עצים
מערכות לומדות תרגול 3 עצים
 
מערכות לומדות פגישה 6
מערכות לומדות פגישה 6מערכות לומדות פגישה 6
מערכות לומדות פגישה 6
 

Парадоксы теории вероятностей - мифы и рифы теории вероятностей ( скептики 2014)

  • 1. © Igor Kleiner Школа Обработки и Анализа Данных – ШОАДик Общество скептиков - Москва 2014 версия просто, научно, полезно ПАРАДОКСЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ PLEASURES OF PROBABILITY
  • 2.
  • 4. ЕРАЛАШ Выпуск 45, серия 2, «На всякий случай» http://www.youtube.com/watch?v=tez_PS3H6s0
  • 6. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Длину Ленина умножить на ширину Ленина
  • 7. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Вычислить интеграл по поверхности
  • 8. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло»
  • 9. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек выбирают в квадрате
  • 10. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек выбирают в квадрате • Сколько в среднем точек попадет в нижний треугольник?
  • 11. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек, бросаются в квадрат • Сколько в среднем точек попадет в нижний треугольник? • Чему равна площадь нижнего треугольника?
  • 12. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек, бросаются в квадрат • Сколько в среднем точек попадет в нижний треугольник? 12 • Чему равна площадь нижнего треугольника?
  • 13. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек, бросаются в квадрат • Сколько в среднем точек попадет в нижний треугольник? 12 • Чему равна площадь нижнего треугольника? 12
  • 14. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Теория вероятностей - «Метод Монте Карло» • Большое количество случайных точек, бросаются в квадрат • Сколько в среднем точек попадет в нижний треугольник? 12 • Чему равна площадь нижнего треугольника? 12
  • 15. МЕТОД «МОНТЕ КАРЛО» ДЛЯ ВЫЧИСЛЕНИЯ ПЛОЩАДИ • Количество случайных точек, брошенных в квадрат и попавших во внутрь контура, стремится (в среднем, по вероятности) к площади контура
  • 16. МЕТОД «МОНТЕ КАРЛО» ДЛЯ ВЫЧИСЛЕНИЯ ПЛОЩАДИ • “Дайте мне иглу и время и я вычислю пи»
  • 17. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Дайте мне иглу,
  • 18. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Дайте мне иглу, время
  • 19. «КАК НАЙТИ ПЛОЩАДЬ ЛЕНИНА?» • Дайте мне иглу, время и Ленина
  • 21. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Мать ребенка была признана виновной в убийстве • “ Sally Clark case . Clark was a layer wrongly convicted in 1999 of the murder of her two baby sons, largely on the basis of Meadow's evidence; her conviction was quashed in 2003 after she had spent three years in jail.[ Sally Clark never recovered from the experience, developed a number of serious psychiatric problems including serious alcohol dependency and died in 2007 from alcohol poisoning
  • 22. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Мать ребенка была признана виновной в убийстве • Только для независимых событий, вероятность того, что они оба произойдут равна произведению вероятностей • Для зависимых событий – это не верно
  • 23. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Вероятность(подозреваемый виновен при условии, что его отпечатки пальцев совпадают с отпечатками найденными, на месте преступления) = ? • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ? + =
  • 24. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ? + =
  • 25. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ?
  • 26. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ? • Дилемма: Искомая условная вероятность зависит от вероятности того, что подозреваемый виновен
  • 27. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ? • Дилемма: Искомая условная вероятность зависит от вероятности того, что подозреваемый виновен • Какова вероятность, что вы виновны? • Какова вероятность, что случайный человек виновен? • 0.1? 0.01? 0.001?
  • 28. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ • Р(подозреваемый виновен | отпечатки совпадают) = ? • Р(А | B) = ? • Дилемма: Искомая условная вероятность зависит от вероятности того, что подозреваемый виновен • Какова вероятность, что вы виновны? • Какова вероятность, что случайный человек виновен? • 0.1? 0.01? 0.001 - разные предпосылки дадут разные ответы
  • 29. ТЕОРИЯ ВЕРОЯТНОСТЕЙ В СУДЕ Дилемма: Искомая условная вероятность зависит от вероятности того, что подозреваемый виновен Какова вероятность, что случайный человек виновен? • 0.1? 0.01? 0.001 - разные предпосылки дадут разные ответы • Разные ответы приведут к разным решениям суда
  • 30. ДАКТИЛОСКОПИЯ – НАУКА ИЛИ ПСЕВДОНАУКА • Science and Pseudoscience in Law Enforcement: A User- Friendly Primer Lilienfeld
  • 31. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ГЕНЕТИКА • Регрессия к среднему
  • 32. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ГЕНЕТИКА • Регрессия к среднему • В среднем: • у родителей, чей рост выше среднего, рождаются дети чей рост ниже роста родителей • у родителей, чей рост ниже среднего, рождаются дети чей рост выше роста родителей
  • 33. РЕГРЕССИЯ К СРЕДНЕМУ • Следствие: • Если получил за экзамен оценку выше средней оценки на факультете, то возможно не стоит его пересдавать, чтобы улучшить
  • 35. СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ • Какая из последовательностей более случайна? • 1100010100101101010111001000100100100101110110010 10110010110010001011 • 01010111011100111000001111010100101011011001010010 011101110011111111001
  • 36. СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ • Какая из последовательностей более случайна? • 1100010100101101010111001000100100100101110110010 10110010110010001011 • 01010111011100111000001111010100101011011001010010 011101110011111111001
  • 37. СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ • Какая из последовательностей более случайна? • 1100010100101101010111001000100100100101110110010 10110010110010001011 • 01010111011100111000001111010100101011011001010010 011101110011111111001 • Для симметричной монеты эти последовательности равновероятны
  • 38. СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ • Какая из последовательностей более случайна? • 1100010100101101010111001000100100100101110110010 10110010110010001011 • 01010111011100111000001111010100101011011001010010 011101110011111111001 • Несложно доказать, что случайная последовательность длины n, с большой вероятностью будет содержать минимум ln(n) подрядидущих одинаковых элементов
  • 39. СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ • Несложно доказать, что случайная последовательность длины n, с большой вероятностью будет содержать минимум ln(n) подряд идущих одинаковых элементов n Ln(n) 100 5 1000 7 10 000 10 1 000 000 12
  • 40. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО
  • 41. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО • Сколько, в среднем, надо купить наклеек, чтобы собрать альбом? • Предположим, что все наклейки одинаково равновероятны и всего n разных наклеек.
  • 42. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО • Сколько, в среднем, надо купить наклеек, чтобы собрать альбом? • В среднем надо купить n*ln(n) наклеек! n n*ln(n) 50 200 100 500 200 1060 500 3100
  • 43. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И НАШЕ ДЕТСТВО • Сколько, в среднем, надо купить наклеек, чтобы собрать альбом? • В среднем надо купить n*ln(n) наклеек! n n*ln(n) 50 200 100 500 200 1060 500 3100
  • 44. МУЗЫКАЛЬНЫЙ ВОПРОС • На диске n песен. И проигрываются они в случайном порядке. Возможно, одна и та же песня будет проиграна несколько раз подряд • Сколько, в среднем, надо ждать, пока каждая песня не будет услышана хотя бы раз?
  • 46. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ
  • 47. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ • В куче n пар носков, сколько надо извлечь носков, пока не получиться пара?
  • 48. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ • В куче n пар носков сколько надо извлечь носков, пока не получиться пара? ( предположим, что все пары разные) • Насущная проблема?
  • 49. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ •
  • 50. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ • n 10 6 50 13 100 18 500 40
  • 51. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И СТРАНА ПЕРЕПУТАННЫХ НОСКОВ •
  • 54. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ СЕМЬИ
  • 55. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ СЕМЬИ • Предположим, что вероятность того, что родится мальчик, равна вероятности рождения девочки • Предположим, что пол разных детей в семье, не зависит друг от друга
  • 56. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ СЕМЬИ • Различные типы семей • тип а: заводят 2 детей (мм, мд, дм, дд) • тип б: заводят ребенка до первого мальчика (м, дм, ддм, • тип с: заводят детей, пока мальчиков не будет в два раза больше и минимум два (мм,дмм, мдм,ддмммм, ….) • В среднем, в каком типе семей будет больше мальчиков?
  • 57. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ПЛАНИРОВАНИЕ СЕМЬИ • Природу не обманешь • Теорема: при любой стратегии останова, пропорции детей каждого пола будут равны • Доказательство: Равенство Вальда • http://www.youtube.com/watch?v=mjRcGfAEdvE
  • 58. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И АНАЛИЗ ИЗОБРАЖЕНИЙ • Обработка изображений – бурно развивающая область компьютерных наук
  • 59. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И АНАЛИЗ ИЗОБРАЖЕНИЙ • Обработка изображений – бурно развивающая область компьютерных наук • Обработка фотографий • Распознавание лиц • Трехмерные фотографии • Узнавание эмоций на фото • Ретуширование фотографий • Поиск похожих изображений • …
  • 61. ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ • Сложная задача • Как определить похожесть? • похожа текстура? • похож сюжет изображения? • Похожие цвета? • Начнем с простой задачи!
  • 62. ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ • Начнем с простой задачи! • Можно ли изображение разделить прямой линией на две части, каждая из которых одноцветна?
  • 63. ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ • Начнем с простой задачи! • Можно ли изображение разделить прямой линией на две части, каждая из которых одноцветна?
  • 64. ПОИСК ПОХОЖИХ ИЗОБРАЖЕНИЙ • Начнем с простой задачи! • Можно ли изображение разделить прямой линией на две части, каждая из которых одноцветна? НЕТ НЕТ ДА
  • 65. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ЧАСТИ • Входные данные: изображение размером 4000*4000 пикселей. • Наивный алгоритм: • Проверим каждый вариант разбиения изображения прямой линией
  • 66. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ЧАСТИ • Наивный алгоритм: • проверим каждый вариант разбиения изображения прямой линией: • Проблема: • количество разбиений 6*4000*4000 = 96 миллионов • в каждом разбиении надо проанализировать 16 миллионов пикселей
  • 67. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ЧАСТИ • Наивный алгоритм: • проверим каждый вариант разбиения изображения прямой линией: • Проблема: • количество разбиений 6*4000*4000 = 96 миллионов • в каждом разбиении надо проанализировать 16 миллионов пикселей • Всего 16 000000 * 96 000000 = 1500000 миллиардов операций
  • 68. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ЧАСТИ • Наивный алгоритм: • проверим каждый вариант разбиения изображения прямой линией: • Всего 16 000000 * 96 000000 = 1500000 миллиардов операций БЕДА
  • 69. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ЧАСТИ • Наивный алгоритм: • Всего 16 000000 * 96 000000 = 1500000 миллиардов операций • Можно ли быстрее? • А можно не проверять все пиксели изображения, чтобы узнать ответ?
  • 70. РАЗДЕЛИМОСТЬ ИЗОБРАЖЕНИЯ НА ДВЕ МОНОХРОМНЫЕ ПОЛУПЛОСКОСТИ • Наивный алгоритм: • Всего 16 000000 * 96 000000 = 1500000 миллиардов операций • Можно ли быстрее? • А можно не проверять все пиксели изображения, чтобы узнать ответ? ПОЧТИ МОЖНО! ТЕОРИЯ ВЕРОЯТНОСТЕЙ
  • 71. ДВА ВИДА СЛУЧАЙНЫХ ДОКТОРОВ • Два вида случайных докторов • Первый: способен излечить 90% людей • Второй: в результате лечения пациент выздоравливает с вероятностью 0.9 • Какой врач лучше?
  • 72. ДВА ВИДА СЛУЧАЙНЫХ ДОКТОРОВ • Два вида случайных докторов • Первый: способен излечить 90% людей • Второй: в результате лечения пациент выздоравливает с вероятностью 0.9 • Какой врач лучше? • Второй лучше, так как, если он не справится – дадим ему еще шанс.
  • 73. ДВА ВИДА СЛУЧАЙНЫХ АЛГОРИТМОВ • Два вида случайных алгоритмов 1. Возвращает правильный ответ лишь на 90% входных данных 2. На любых входных данных возвращает правильный ответ с вероятностью 0.9 • Какой алгоритм лучше?
  • 75. АНАЛИЗ ИЗОБРАЖЕНИЙ СЛУЧАЙНЫЙ АЛГОРИТМ • Вместо 1500000 миллиардов операций (количество операций зависит от размера изображений), достаточно 200 000 операций (не зависит от размера изображений) • Выигрыш в 15 000 000 000 раз. • Детали: “Property testing for image segmentation” • ­СУБЛИНЕЙНЫЙ АЛГОРИТМ АНАЛИЗА ИЗОБРАЖЕНИЙ С ПОМОЩЬЮ ТЕХНИКИ ТЕСТИРОВАНИЯ СВОЙСТВ
  • 76. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ • Путешественник находится в замкнутом огромном лабиринте без выхода • Все комнаты лабиринта выглядят одинаково • Известно, что в лабиринте n комнат • Цель: определить момент, когда путешественник побывал во всех комнатах
  • 77. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ • Цель: определить момент, когда путешественник побывал во всех комнатах • Решение: обходим лабиринт с помощью известного алгоритма, каждую новую комнату помечаем краской
  • 78. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И ЛАБИРИНТЫ • Цель: определить момент, когда путешественник побывал во всех комнатах • Решение: обходим лабиринт с помощью известного алгоритма, каждую новую комнату помечаем краской • Проблемы: нет краски, комнаты одинаковы, помечать нельзя
  • 81. СЛУЧАЙНОЕ БЛУЖДАНИЕ • Случайное блуждание на прямой • на каждом этапе с вероятностью 0.5 можно сделать шаг вправо или с такой же вероятностью шаг влево
  • 82. СЛУЧАЙНОЕ БЛУЖДАНИЕ • Случайное блуждание на прямой • на каждом этапе с вероятностью 0.5 можно сделать шаг вправо или с такой же вероятностью шаг влево • Какова вероятность, что два человека встретятся?
  • 83. СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПРЯМОЙ Какова вероятность влюбленным встретиться, случайно блуждая на прямой? Вероятность равна 1 Но среднее время до встречи равно бесконечности
  • 84. СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПЛОСКОСТИ Какова вероятность влюбленным встретиться, случайно блуждая на плоскости?
  • 85. СЛУЧАЙНОЕ БЛУЖДАНИЕ НА ПЛОСКОСТИ Какова вероятность влюбленным встретиться, случайно блуждая на плоскости? Вероятность равна 1 Но среднее время до встречи равно бесконечности
  • 86. СЛУЧАЙНОЕ БЛУЖДАНИЕ В ТРЕХМЕРНОМ ПРОСТРАНСТВЕ Какова вероятность влюбленным встретиться, случайно блуждая в 3D? Вероятность меньше 1
  • 87. СЛУЧАЙНОЕ БЛУЖДАНИЕ В ТРЕХМЕРНОМ ПРОСТРАНСТВЕ ВЫВОДЫ: • Многомерные существа очень одиноки • Не надо случайно блуждать в поисках счастья • рассказ «Трансцендентное одиночество» • Random Walks (Stochastic Processes) • Random walks on electrical networks • Шекли «обмен разумом»
  • 88. ЗА КАДРОМ • Научный эксперимент • Формула расчета цены опциона • Игра в казино - мартингал
  • 89. ТЕОРИЯ ВЕРОЯТНОСТЕЙ • Теория вероятностей • Математическая статистика • Случайные процессы • Дисперсионный анализ • Регрессионный анализ • Стохастическое программирование • Симуляция • Искусственный интеллект • Анализ данных
  • 90. БЛАГОДАРНОСТИ • Клейнер Надежда • Гольцман Александр • Заславский Эдуард • Бородин Захар • Невеев Александр • Алферов Кирилл