Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

нейронные сети

4,536 views

Published on

  • Be the first to comment

  • Be the first to like this

нейронные сети

  1. 1. Искусственные нейронные сети* для самых маленьких :) или Заговор Математиков :(*ИНС=ИИ
  2. 2. Уоссермен, Ф. Нейрокомпьютерная техника: Теория ипрактика, Philip D Wasserman Neural Computing. Theoryand Practice. — М.: Мир, 1992. — 240 с. Пер. с англ. Ю.А.Зуева, В.А.Точенова,Warren Sturgis McCulloch, 1943, "A Logical Calculus of theIdeas Immanent in Nervous Activity". With: Walter Pitts.Фрэнк Розенблатт, Принципы нейродинамики.Перцептроны и теория механизмов мозга (М., 1965)Марвин Ли Минский, Персептроны, в соавторстве сСеймуром Папертом, MIT Press, 1969Хайкин Саймон, Нейронные сети. Полный курс. Годвыпуска: 2006. Издательство: Вильямс
  3. 3. Спасибо за внимание! tolokonnikov.albert@gmail.comp.s "Обязательное условие для изучения Искусственного Интеллекта этоналичие Естественного." А.Толоконников
  4. 4. Положение дел в области изучения Искусственного Интеллекта. Первое впечатление.
  5. 5. Фрагмент картины с предыдущий слайда.
  6. 6. Возможные стратегии поведения при изучении Искусственного ИнтеллектаНичего не понимаю, Делаю только то, что Ничего не делаю, но но делаю. понимаю. всё понимаю. "Пользователь" "Программист" "Учёный"
  7. 7. Краткая история человечества ? ~3,5 млрд. летОдноклеточные Многоклеточные Человек
  8. 8. 1943 - Уоррен Мак-Каллок и Уолтер Питтс 1949 - Дональд Хебб предлагает формализуют понятие нейронной сети первый алгоритм обучения.В 1969 году Марвин Минский публикуетформальное доказательство 1958 - Франк Розенблатт изобретаетограниченности перцептрона. однослойный перцептрон.
  9. 9. Порог возбуждения Входной вектор Функция Результат активации 1 w0 w1Х1 NET > 0 = 1 Y X1 * w1 + X2 * w2 + w0=NET NET =< 0 = 0Х2 w2 Веса Сумматор
  10. 10. Обучение персептрона Розенблатта1. Подать входной образ и вычислить Y.2. a. Если выход правильный, то перейти на шаг 1; b. Если выход неправильный и равен нулю, то добавить все входы к соответствующим им весам; c. Если выход неправильный и равен единице, то вычесть каждый вход из соответствующего ему веса.3. Перейти на шаг 1.
  11. 11. n 22n Число линейно разделимых функций1 4 42 16 143 256 1044 65536 18825 4,3х109 945726 1,8х1019 15 028 134
  12. 12. 1974 — Пол Дж. Вербос и А. И. Галушкинодновременно изобретают алгоритм обратногораспространения ошибки для обучениямногослойных перцептронов. 1982 — Джон Хопфилд показал, что нейронная сеть с обратными связями может представлять собой систему, минимизирующую энергию. Тейво Калеви Кохонен представлены модели сети, обучающейся без учителя (Нейронная сеть Кохонена), решающей задачи кластеризации, визуализации данных (самоорганизующаяся карта Кохонена) и другие задачи предварительного анализа данных. 1986 — Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом Дж. Вильямсом и независимо и одновременно С. И. Барцевым и В. А. Охониным (Красноярская группа) переоткрыт и существенно развит метод обратного распространения ошибки. Начался взрыв интереса к обучаемым нейронным сетям.
  13. 13. Вычислительные проблемы:Паралич сети Локальный "плохой" минимум Время сходимости
  14. 14. Хорошие новости из 1956-го Российский математик, академик А. Н. Колмогоров"Можно получить любую непрерывную функцию n переменных спомощью операций сложения, умножения и суперпозиции изнепрерывных функций одного переменного."Вывод - Нейронные сети это универсальные аппроксимирующиеустройства и могут с любой точностью имитировать любой непрерывныйавтомат.
  15. 15. Рекламная пауза. Пчела, с помощью "танца", сообщает другим пчёлам угол между направлением на солнце и направлением на источник нектара. При этом если между источником и ульем будет высокий холм, то пчёлы, получившие информацию, полетят вокруг холма, чтобы сэкономить энергию. Каким образом они при этом вычисляют месторасположение источника пока не понятно. Экспериментально выяснено, что муравьи могут сообщать друг другу о расположении корма используя счёт до десяти. При этом если есть возможность сообщить логически вычисляемую цифру, например 3-ой от конца вместо 7-ой от начала, то они сообщат цифру которая требует меньших вычислительных способностей. Как и когда они сообщают эту информацию друг другу пока не понятно.
  16. 16. Сети Хопфильда.Ассоциативная память Двунаправленная ассоциативная память Пример
  17. 17. Нейронные сети Кохонена
  18. 18. Адаптивная резонанснаятеория
  19. 19. Самое интересное.● Оптические, искусственные, нейронные сети.● Квантовые, искусственные, нейронные сети.● Генетический коннективизм.
  20. 20. Спасибо за внимание! tolokonnikov.albert@gmail.comp.s "Обязательное условие для изучения Искусственного Интеллекта этоналичие Естественного." А.Толоконников

×