Details of Lazy Deep Learning for Images Recognition in ZZ Photo appPAY2 YOU
В докладе представлена тема глубокого обучения (Deep Learning) для распознавания изображений. Рассматриваются практические аспекты обучения глубоких сверточных сетей на GPU, обсуждается личный опыт портирования обученных нейросетей в приложение на основе библиотеки OpenCV, проводится сравнение полученного детектора домашних животных на основе подхода Lazy Deep Learning с детектором Виолы-Джонса.
Докладчики: Артем Чернодуб – эксперт в области искусственных нейронных сетей и систем искусственного интеллекта. В 2007 году закончил Московский физико-технический институт. Руководит направлением Computer Vision в компании ZZ Wolf, а также по совместительству работает научным сотрудником в Институте проблем математических машин и систем НАНУ.
Юрий Пащенко – специалист в области систем машинного зрения и машинного обучения, магистр НТУУ «Киевский Политехнический Институт», факультет прикладной математики (2014). Работает в компании ZZ Wolf на должности R&D Engineer.
What one needs to know to work in Natural Language Processing field and the aspects of developing an NLP project using the example of a system to identify text language
Details of Lazy Deep Learning for Images Recognition in ZZ Photo appPAY2 YOU
В докладе представлена тема глубокого обучения (Deep Learning) для распознавания изображений. Рассматриваются практические аспекты обучения глубоких сверточных сетей на GPU, обсуждается личный опыт портирования обученных нейросетей в приложение на основе библиотеки OpenCV, проводится сравнение полученного детектора домашних животных на основе подхода Lazy Deep Learning с детектором Виолы-Джонса.
Докладчики: Артем Чернодуб – эксперт в области искусственных нейронных сетей и систем искусственного интеллекта. В 2007 году закончил Московский физико-технический институт. Руководит направлением Computer Vision в компании ZZ Wolf, а также по совместительству работает научным сотрудником в Институте проблем математических машин и систем НАНУ.
Юрий Пащенко – специалист в области систем машинного зрения и машинного обучения, магистр НТУУ «Киевский Политехнический Институт», факультет прикладной математики (2014). Работает в компании ZZ Wolf на должности R&D Engineer.
What one needs to know to work in Natural Language Processing field and the aspects of developing an NLP project using the example of a system to identify text language
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №11 "Основы нейронных сетей"
Лектор - Павел Нестеров
Биологический нейрон и нейронные сети. Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть. Персептрон Розенблатта и Румельхарта. Алгоритм обратного распространения ошибки. Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой. Различные режимы обучения.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Neuron Synchronization and Representation of Space and Time in Neural NetworksSSA KPI
AACIMP 2010 Summer School lecture by Witali Dunin-Barkowski. "Physics, Chemistry and Living Systems" stream. "Problems of Synchronization and Representation of Time and Space in Neural Networks" course.
More info at http://summerschool.ssa.org.ua
Техносфера Mail.ru Group, МГУ им. М.В. Ломоносова. Курс "Алгоритмы интеллектуальной обработки больших объемов данных", Лекция №11 "Основы нейронных сетей"
Лектор - Павел Нестеров
Биологический нейрон и нейронные сети. Искусственный нейрон Маккалока-Питтса и искусственная нейронная сеть. Персептрон Розенблатта и Румельхарта. Алгоритм обратного распространения ошибки. Момент обучения, регуляризация в нейросети, локальная скорость обучения, softmax слой. Различные режимы обучения.
Видео лекции курса https://www.youtube.com/playlist?list=PLrCZzMib1e9pyyrqknouMZbIPf4l3CwUP
Neuron Synchronization and Representation of Space and Time in Neural NetworksSSA KPI
AACIMP 2010 Summer School lecture by Witali Dunin-Barkowski. "Physics, Chemistry and Living Systems" stream. "Problems of Synchronization and Representation of Time and Space in Neural Networks" course.
More info at http://summerschool.ssa.org.ua
1. Искусственные
нейронные сети* для
самых маленьких :)
или
Заговор Математиков :(
*ИНС=ИИ
2. Уоссермен, Ф. Нейрокомпьютерная техника: Теория и
практика, Philip D Wasserman Neural Computing. Theory
and Practice. — М.: Мир, 1992. — 240 с. Пер. с англ. Ю.А.
Зуева, В.А.Точенова,
Warren Sturgis McCulloch, 1943, "A Logical Calculus of the
Ideas Immanent in Nervous Activity". With: Walter Pitts.
Фрэнк Розенблатт, Принципы нейродинамики.
Перцептроны и теория механизмов мозга (М., 1965)
Марвин Ли Минский, Персептроны, в соавторстве с
Сеймуром Папертом, MIT Press, 1969
Хайкин Саймон, Нейронные сети. Полный курс. Год
выпуска: 2006. Издательство: Вильямс
3. Спасибо за внимание!
tolokonnikov.albert@gmail.com
p.s "Обязательное условие для изучения Искусственного Интеллекта это
наличие Естественного." А.Толоконников
4. Положение дел в области изучения Искусственного Интеллекта.
Первое впечатление.
6. Возможные стратегии поведения при изучении
Искусственного Интеллекта
Ничего не понимаю, Делаю только то, что Ничего не делаю, но
но делаю. понимаю. всё понимаю.
"Пользователь" "Программист" "Учёный"
9. 1943 - Уоррен Мак-Каллок и Уолтер Питтс 1949 - Дональд Хебб предлагает
формализуют понятие нейронной сети первый алгоритм обучения.
В 1969 году Марвин Минский публикует
формальное доказательство 1958 - Франк Розенблатт изобретает
ограниченности перцептрона. однослойный перцептрон.
10. Порог
возбуждения
Входной
вектор Функция
Результат
активации
1
w0
w1
Х1
NET > 0 = 1
Y
X1 * w1 + X2 * w2 + w0=NET
NET =< 0 = 0
Х2 w2
Веса Сумматор
11. Обучение персептрона Розенблатта
1. Подать входной образ и вычислить Y.
2.
a. Если выход правильный, то перейти на
шаг 1;
b. Если выход неправильный и равен
нулю, то добавить все входы к
соответствующим им весам;
c. Если выход неправильный и равен
единице, то вычесть каждый вход из
соответствующего ему веса.
3. Перейти на шаг 1.
12.
13. n 22n Число линейно
разделимых функций
1 4 4
2 16 14
3 256 104
4 65536 1882
5 4,3х109 94572
6 1,8х1019 15 028 134
14.
15.
16.
17.
18.
19. 1974 — Пол Дж. Вербос и А. И. Галушкин
одновременно изобретают алгоритм обратного
распространения ошибки для обучения
многослойных перцептронов. 1982 — Джон Хопфилд показал, что нейронная сеть
с обратными связями может представлять собой
систему, минимизирующую энергию.
Тейво Калеви Кохонен представлены модели сети,
обучающейся без учителя (Нейронная сеть
Кохонена), решающей задачи кластеризации,
визуализации данных (самоорганизующаяся карта
Кохонена) и другие задачи предварительного
анализа данных.
1986 — Дэвидом И. Румельхартом, Дж. Е. Хинтоном и Рональдом
Дж. Вильямсом и независимо и одновременно С. И. Барцевым и В.
А. Охониным (Красноярская группа) переоткрыт и существенно
развит метод обратного распространения ошибки. Начался взрыв
интереса к обучаемым нейронным сетям.
22. Хорошие новости из 1956-го
Российский математик,
академик А. Н. Колмогоров
"Можно получить любую непрерывную функцию n переменных с
помощью операций сложения, умножения и суперпозиции из
непрерывных функций одного переменного."
Вывод - Нейронные сети это универсальные аппроксимирующие
устройства и могут с любой точностью имитировать любой непрерывный
автомат.
23. Рекламная пауза.
Пчела, с помощью "танца", сообщает
другим пчёлам угол между направлением
на солнце и направлением на источник
нектара. При этом если между источником
и ульем будет высокий холм, то пчёлы,
получившие информацию, полетят вокруг
холма, чтобы сэкономить энергию.
Каким образом они при этом вычисляют
месторасположение источника пока не
понятно.
Экспериментально выяснено, что муравьи
могут сообщать друг другу о
расположении корма используя счёт до
десяти. При этом если есть возможность
сообщить логически вычисляемую цифру,
например 3-ой от конца вместо 7-ой от
начала, то они сообщат цифру которая
требует меньших вычислительных
способностей. Как и когда они сообщают
эту информацию друг другу пока не
понятно.
28. Спасибо за внимание!
tolokonnikov.albert@gmail.com
p.s "Обязательное условие для изучения Искусственного Интеллекта это
наличие Естественного." А.Толоконников