SlideShare a Scribd company logo
Редкие сигналы учителя и
Активное обучение
Semi-supervised and Active
Learning
Сергей Терехов
ООО "НейрОК ТехСофт", http://www.neurokts.ru E-mail: alife@narod.ru
В этой лекции:
Рассматривается проблема целенаправленного отбора
обучающих примеров с известной информацией о классах.
Предлагаются методы эффективного использования всех
имеющихся данных, независимо от наличия меток классов.
Развитые подходы применяются к задаче классификации
дефектов труб магистральных нефтепроводов по данным
магнитной внутритрубной дефектоскопии.
The problem of directed optimal selection of labeled training samples (Active Learning) is
considered. Practical methods of utilization of all available data via Semi-Supervised
Learning are proposed. The developed approach is applied to recognition and
classification of pipeline defects from measurements of magnetic flux leakage
defectoscopes.
План
● Проблема обучения на данных с редкими метками
● Гибридное обучение с метками и без меток (semi-
supervised learning):
○ Алгоритмы классификации на графах
○ Нейросетевой классификатор с оценкой плотности
● Активный отбор данных при обучении (active learning)
○ Общая задача планирования сбора информации
○ Ранжирование и активный выбор примеров
● Анализ дефектоскопических данных
○ Практическая задача: классификация дефектов
промышленного трубопровода
Обучение "с учителем" и
"самостоятельно". Чему учиться?
● Типичная ситуация: доступный корпус данных весьма
обширен, однако основной объем наблюдений не
содержит смысловых меток. Традиционная постановка
базовых задач обучения машин (классификации,
регрессии, прогнозирования и др.) крайне затруднена.
● Semi-supervised - промежуточное положение между
обучением с учителем и самоорганизацией без учителя.
● Если можно выбирать,
то чему учиться?
Active learning
Три основных проблемных вопроса
1. Пространство входных признаков.
Входные компоненты данных необходимо эффективно
описывать безотносительно меток-выходов. Имеющейся
информации о выходах заведомо недостаточно для
адаптивного формирования входных признаков в процессе
обучения.
Три основных проблемных вопроса
2. Использование примеров без меток при обучении.
Это предложение, на первый взгляд, может выглядеть
парадоксальным - чем может помочь входной пример, если
значение выхода для него не известно?
В действительности, информация о распределении входов
может значительно сужать класс вероятных моделей, что и
может быть использовано, если сигналы учителя редки.
Три основных проблемных вопроса
3. Стратегия сбора новых данных о выходах.
Направленный отбор данных для оценивания должен
максимизировать информативность выходов ("сигналов
учителя") при последующем обучении.
Сбор данных - тяжелый труд
Гибридное обучение
● Идея: Разумеется, отдельные примеры без меток, сами
по себе, не могут повысить правдоподобие в задаче
классификации с учителем. Однако, пространственное
распределение множества обучающих примеров без
меток может существенно изменять наши априорные
представления о границах классов.
● Формализация:
○ Данные образуют компактные кластерные структуры,
○ Вероятные границы классов не пересекают
областей, густо населенных данными,
○ Близкие в пространстве признаков примеры
предпочтительно относятся к одному классу.
Пример влияния примеров без меток
на априорное решение
● Ситуация A: два
примера с метками.
● Ситуация Б: те же
примеры с метками
плюс информация о
расположении
примеров без меток.
● Априорные границы
классов - разные
Роль предположений в гибридном
обучении
● В приведенном примере выполнены все основные
предположения о характере данных, которые
благоприятствуют эффективному использованию
примеров без меток в задачах классификации
(структуры, границы классов - там, где нет данных, и
компактность классов).
● Значительное уклонение данных в прикладной задаче
от таких предположений может приводить к ухудшению
точности классификации при учете примеров без меток.
Гибридные алгоритмы на графах
● Граф, узлами которого служат все обучающие примеры
(и с метками, и без), а ребрами соединены пары
''близких'' примеров, позволяет выделить однородные
области, заполненные данными.
● Классификаторы:
○ поиск границ классов, пересекающих минимальное
число ребер графа
○ поиск гармонической функции со значениями,
равными +-1 в узлах и известными метками, и
взвешенной сумме значений в соседних узлах, если
метка данного узла не задана.
Гармоническая функция -
классификатор на графе
Параллельная реализация
(спецпроцессоры), алгоритмы линейной
алгебры. Скучно...
Проблемы с алгоритмами на графах
● Графовые алгоритмы дают лишь трансдуктивное обучение.
○ Другими словами, значения функции-классификатора определены только в
точках имеющихся данных. Все интересующие примеры (и с метками, и без)
должны быть заранее определены. При добавлении новых данных
необходимо заново перестроить классификатор.
● В приложениях, в условиях шума в данных, весьма непросто
построить хороший граф соседства.
○ Проблема особенно обостряется, если в разных областях пространства
данных ближайшие примеры отстоят друг от друга на разных масштабах.
Эта проблема не так остра для графов на основе ближайших соседей,
однако в этом случае фиксирование числа соседей может нарушать
естественную кластерную структуру в малозаселенных областях данных.
Построение сбалансированного графа в общем случае представляет собой
нерешенную задачу.
● Сложности с масштабированием при росте объема данных.
○ Надежные вычисления (и, прежде всего, построение самого графа) при
объеме данных выше нескольких десятков тысяч примеров затруднены.
Графы хороши в "естественных"
графовых задачах
Перспективными для графовых
методов являются приложения,
в которых структура графа
определена и задана
изначально.
Примером такой задачи,
актуальной в последнее время,
служат графы социальных
сетей. Эта тематика весьма
обширна и заслуживает
отдельной лекции.
Social Network Mining
http://www.cs.purdue.edu/homes/neville/courses/aaai08-tutorial.html
Нейросетевой классификатор для
данных с метками и без меток
Обратимся к методам обучения на
примерах с редкими метками, в
которых плотность данных
моделируется и используется
локально (поточечно).
Нейронная сеть может быть
традиционными способами легко
обучена только на порции
примеров с метками. Однако, если
доля примеров с метками заметно
мала, то.....
Задача А.Н. Горбаня
1 1 1
1 ? 1
1 1 1
Мало примеров
для обучения
Херлуф Бидструп
1912-1988
Мало меток: Два вопроса
● Трудно надеяться на хорошие обобщающие свойства такой
модели - нейронная сеть не в состоянии сформировать
существенные для задачи категории в выходных слоях.
● Еще б'ольшие проблемы возникают на входах. При
полноценном обучении (на достаточной выборке данных)
входные нейроны, в теории, автоматически формируют набор
информативных признаков. Даже при богатых данных этот
процесс, в действительности, достаточно сложен, и
полученные признаки могут оказаться далекими от
оптимальных.
В нашем случае редких меток для формирования
содержательных входных признаков имеющейся информации
о метках заведомо недостаточно.
Простая и ясная идея
● Попутно с задачей классификации решать и задачу
аппроксимации плотности (оценка носителя данных)
● Использовать для решения задачи классификации
готовый базис входных слоев, который формируется
при адаптации нейронной сети к пространственному
распределению (плотности) данных. Для оценки
плотности могут быть использованы все имеющиеся
примеры (в том числе, без меток)
NDBC: Neural Density Based Classifier
● Многослойная нейронная сеть прямого
распространения
● Входы: входные сигналы обычного нейросетевого
классификатора
● Выходы:
○ K выходов для кодирования K классов
○ Дополнительный выход, пропорциональный
локальной плотности данных (Терехов, 2002)
● Обучение: с учителем, на смеси исходных данных и
фоновых шумовых (случаных) примеров
Почему это будет работать?
Разумеется, информативный базис для задачи оценивания
условной вероятности p(y|x) трудно построить на основе
апроксимации только p(x), однако в последнем случае
будет рационально описана топология входного
пространства.
Примеры, относящиеся к одной связной области, будут
порождать схожую активность в выходных нейронных
слоях. Тогда формально достаточно одного примера с
меткой, чтобы правильно классифицировать всю
однородную область.
Также автоматически гарантируется и отсутствие
рассечения плотной однородной области границей классов
- в построенном по p(x) базисе просто нет соответствующих
элементов.
Аппроксимация плотности
Рассматривается (лекция 2002 г.), как обучение с учителем
на удвоенном множестве примеров (исходные примеры +
случайные примеры). Для исходных примеров целевой
выход +1, для случайных -1.
Значение выхода a(x) сходится к локальной плотности:
P(x) ~ Po (1+a(x)) / (1-a(x))
Здесь нам нужна не сама плотность, а нейронный базис,
получающийся в результате аппроксимации.
http://alife.narod.ru/lectures/density2002/Density2002.pdf
Особенности обучения
Веса выхода, ответственного за моделирование плотности,
обучаются всегда. Веса нейронов, занятого исходной
задачей классификации, используются для формирования
градиента только если пример снабжен известной меткой
класса. После каждого примера из входного потока для
обучения предъявляется пример со случайным входом (без
метки).
Первый выход нейросети интенсивно участвует в обучении,
оценивая плотность истинных на фоне случайных
примеров. В скрытых слоях нейронов происходит
формирование базиса входных признаков. Остальные
выходы используют текущее состояние этого базиса для
классификации в соответствии с метками классов.
Попутная аппроксимация плотности
как регуляризатор
Попутная аппроксимация плотности выполняет роль
специфической регуляризации. Действительно, класс
функций, описывающих решающие правила
классификатора при условии одновременной
аппроксимации плотности примеров, сужен в сравнении с
классом функций без этого условия. Таким образом, в
соответствии с теорией А.Н.Тихонова, попутная
аппроксимация плотности является регуляризатором для
исходной задачи.
Упражнение: доказать.
Упражнение (***): опровергнуть, либо ....
Упражнение (***): к чему все-таки сходится выход,
предназначенный для аппроксимации плотности?
Полезно
Аппроксиматор плотности играет самостоятельную
практическую роль в задаче классификации. А именно, его
выход для новых примеров указывает на степень их
принадлежности к исходной обучающей совокупности
данных.
Таким образом, мы получаем не только сам результат
классификации, но и количественную меру его надежности.
Это неоценимо в приложениях, связанных с оценками
риска при прогнозировании. Платой за такие удобства
служит удвоение набора обучающих данных и несколько
более сложная архитектура нейронной сети.
Вредно
Если обучающие примеры получены регулярной
процедурой (например, сетка) для обычного фиттинга
некоторой зависимости. Распределение входов не
информативно.
?
Модельная задача
Сложная
геометрия
данных, два
примера с
метками
классов.
Классификация
- без ошибок
Можно было бы
для формирования входных признаков использовать и
оригинальные модели deep autoencoding (Hinton) или
восстановления (по Яхно). Однако они связаны, так или
иначе, с полным восстановлением входа на выходе, если
нейронная сеть ''узнала'' данный входной образ. Такое
восстановление гораздо более затратно, чем
формирование скалярного сигнала ''узнавания'' от
аппроксиматора плотности, который достаточен для
подкрепления при обучении распознаванию и
классификации.
● Не требуется (изнурительная энергетически)
конкуренция нейронов
● Трудно (?) обнаружить в биосистемах, т.к. механизм
основан на отдельных специфичных (командных)
нейронах.
Активный отбор данных при
обучении
В предыдущей главе был предложен практический
инструмент, позволяющий эффективно использовать при
обучении всю имеющуюся информацию о данных.
Обратимся теперь к вопросу о сборе новой информации.
При этом, по-прежнему, будем предполагать, что нет
дефицита в данных с неизвестной принадлежностью к
классам. Поэтому сконцентрируемся только на проблеме
сбора новых меток для уже имеющихся примеров.
Общая задача оптимального
планирования при сборе данных
Нашей целью является такой процесс получения новых
меток, который скорейшим образом способствует
уменьшению ошибки последовательно обучающегося на
новой информации классификатора.
Эта задача относится к области оптимального
планирования, которая допускает несколько базовых
постановок, в зависимости от горизонта плана и характера
неопределенности в ценности будущих испытаний.
Design of Experiments (DoE)
Подходы
● Для пространств невысоких размерностей:
фиксированные планы эксперимента, например,
латинские гиперкубы.
● Если зафиксирован полный ресурс (бюджет) на
экспериментирование, то задача может быть
сформулирована, как задача стохастической
оптимизации.
● В случае, когда информационные вклады отдельных
наблюдений (здесь - меток классов) независимы или
имеют определенную корреляционную структуру,
задача сводится к известной задаче о многоруком
бандите (см. популярное изложение http://www.neurokts.
ru/docs/Multi_Armed_Bandit_Story.pdf).
Ранжирование и активный выбор
примеров
1. Производится обучение классификатора на всей имеющейся
совокупности данных с метками и без меток.
2. Построенная модель применяется (в режиме распознавания)
ко всем данным без меток. Результаты классификации
оцениваются по одному из выбранных информационных
критериев (ниже) и сортируются в порядке убывания оценки.
Удаляются примеры, индикатор локальной плотности для
которых ниже выбранного порогового значения.
3. Пример с наивысшим рейтингом предлагается эксперту для
назначения метки класса.
4. Принимается решение о пригодности текущей модели, либо о
продолжении сбора данных для уточнения модели. В
последнем случае процесс повторяется.
Роль эксперта в человеко-машинной
системе
Такой логике, в основном, следуют весьма актуальные в
последнее время сценарии интерактивного обучения машин и
человеко-машинных систем (interactive machine learning).
Непосредственная вовлеченность эксперта или пользователя в
процесс синтеза интеллектуальной модели может стать
решающим фактором успеха прикладного проекта, и значительно
повышает уровень доверия к искусственной системе (хотя она
продолжает оставаться ''черным ящиком'').
Основная задача рекомендательного алгоритма отбора данных
сводится, формально, к уменьшению длины последовательности
обработанных экспертом примеров, и, неформально, к
нахождению ''интересных'' примеров, отражающих
разносторонние аспекты исследуемой системы или процесса.
Интеллектуальные человеко-машинные системы
создаются в компании "НейрОК ТехСофт" в Троицке
www.neurokts.ru
Критерии и принципы отбора данных
● Основной критерий (SVM) - это степень близости
примера к текущей оцениваемой границе классов
(энтропия прогнозируемого распределения
вероятностей классов в данной точке).
● Критерий разницы между вероятностью класса
победителя и следующего за ним наиболее вероятного
класса.
● Другие (эвристические) критерии могут использовать
энтропию активностей в слоях скрытых нейронов.
Хаотическая активность большого числа нейронов
может возникать, если пример ''новый'', и для него еще
не сформировался компактный код.
Критерии 2
При обучении с одновременной оценкой матожидания и
дисперсии выходов (пример -- ранее описанная автором в
лекциях система CNet), для предпочтительного назначения
меток могут рекомендоваться примеры с высокой
дисперсией (неопределенностью) выходов. Этот критерий
идентичен подходу, применяемому в алгоритмах на основе
условных гауссовых процессов и опорных векторов
(Relevance Vector Machine и Informative Vector Machine).
Могут использоваться и иные, например, геометрические,
принципы рейтингования, как то удаленность примера от
других примеров с известными метками, либо выбор
примера, способного изменить класс у максимального
числа примеров, если их классифицировать методом
ближайшего соседа.
Модельная задача (3 класса)
Точность решения задачи классификации при последовательном
добавлении обучающих примеров с метками. Стратегии активного
обучения: отбор по максимуму энтропии выходов (кружки, сплошная
линия), опережение первого победителя над вторым (кружки, штрих-
пунктир), случайный выбор (плюсы, сплошная линия) и отбор по
энтропии с попутной аппроксимацией плотности (сплошная линия без
маркеров).
Проблема: классификация дефектов
промышленного нефтепровода
Дефекты сварных швов и стенки трубы
Измерения - магнитные и
ультразвуковые внутритрубные
дефектоскопы
http://en.wikipedia.org/wiki/Magnetic_flux_leakage
Суть вопроса
Описанные в предыдущих разделах подходы применялись к
промышленным задачам классификации дефектов стенок
промышленных нефтепроводов. Информационным
сигналом являются локальные искажения потока
постоянного магнитного поля, насыщающего стенку трубы.
Измерения проводятся промышленными внутритрубными
дефектоскопами, следующими в потоке нефти,
промагничивающими стенки и измеряющими сигналы утечки
потока. В специальной литературе этот метод диагностики
носит название ''метод утечки магнитного потока'' (MFL -
magnetic flux leakage).
Измерения лишьопосредованно отражают форму и
характер дефекта, 3D --> 2D
Суть вопроса 2
При использовании методов магнитной дефектоскопии
основная проблема состоит в установлении связи
двумерного магнитного отклика вблизи плоскости
расположения дефекта, например у стенки трубы, с
истинными трехмерными параметрами дефекта, такого как
коррозийная потеря металла, механическая риска и др.
Задача получения 3D информации из 2D сигнала является
некорректно поставленной, и ее устойчивое решение в
данном частном случае может опираться на априорную
статистику характерных сигналов, параметры дефектов для
которых известны.
Этапы промышленной задачи
Собственно этапу классификации предшествовали
технологические этапы обнаружения и распознавания
областей дефектов на фоне сигналов от конструкционных
элементов трубопровода и источников ''шума'' вследствие
неидеальности трубы и самих диагностических приборов.
Затем, для выявленных областей аномалий магнитного
сигнала, проводилось их количественное описание на
основе системы информативных признаков (выбор которых
представляет собой отдельную сложную задачу).
Постановка задачи в рамках лекции
Каждый из выбранных для анализа 647 дефектов был
представлен 24 признаками, включающими свойства
магнитной системы, параметры формы магнитного
сигнала, контекст расположения и другие свойства.
Глубины проникновения в стенку для этих дефектов
считались известными
В контексте данной лекции, задача представлена в виде
классификации векторов признаков в семейство из трех
классов, отвечающих различным глубинам дефектов. Эта
подзадача важна как для разработки последующей
нелинейной регрессионной модели, прогнозирующей
размеры дефектов, так и для других задач распознавания
(например, классификации дефектов по их типам).
Активное обучение
Обучение нейросетевого
классификатора с двумя
скрытыми слоями нейронов с
попутной аппроксимацией
плотности. Использовалась
Байесова регуляризация
весов нейронов с априорным
распределением Лапласа.
Последовательный активный
отбор обучающих меток
основывался на энтропии
выходов.
Точность классификации дефектов
по глубине (в %) в зависимости от
объема выборки данных с метками.
Значимость входов
Весовые коэффициенты
входного слоя обученной
нейронной сети с глубокой
регуляризацией. Входы (по
горизонтали) упорядочены по
убыванию коэффициента
линейной корреляции с
выходами. Видно, что
решение основано на
использовании 7 входов из
24. При этом 4 из 10
нейронов практически не
задействованы. Эта
информация получается
автоматически, вследствие
корректной регуляризации.
Основной результат
Основной результат - задача классификации успешно
решена с использованием лишь 30-35 примеров с метками
(около 5% от объема исходных данных). Эти примеры не
произвольны, а выявлены путем направленного активного
процесса анализа данных.
Итоги
В практических приложениях, как для промышленных потребителей, так и
при интерпретации результатов научных экспериментов, полный корпус
имеющихся данных, обычно, заметно богаче, чем выборка наблюдений с
известными классами. Задача классификации фундаментальна, и для ее
решения целесообразно использовать всю доступную информацию.
Затратный процесс сбора информативных меток классов необходимо
оптимизировать. В лекции предложены подходы и методы оптимального
отбора обучающих примеров, основанные на совмещении этого отбора с
процессом последовательно уточняющегося обучения классификатора.
Направления активного обучения и гибридного обучения (с метками и без)
бурно развиваются в последнее время. Эти исследования являются, по
мнению автора, замечательным примером, когда теоретические построения
и результаты напрямую сопрягаются с практическими потребностями
пользователей обучающихся машин и алгоритмов.
Спасибо за внимание!
Сергей Терехов
ООО НейрОК Техсофт. г. Троицк
alife@narod.ru

More Related Content

Similar to Сергей Терехов — Активное обучение при малой доле примеров с известными ответами

Перечитывая Лео Бреймана
Перечитывая Лео БрейманаПеречитывая Лео Бреймана
Перечитывая Лео Бреймана
Serge Terekhov
 
Сверточные нейронные сети
Сверточные нейронные сетиСверточные нейронные сети
Сверточные нейронные сети
Ivan Kavalerov
 
1
11
Введение в машинное обучение
Введение в машинное обучениеВведение в машинное обучение
Введение в машинное обучение
Grigory Sapunov
 
03 кластеризация документов
03 кластеризация документов03 кластеризация документов
03 кластеризация документов
Lidia Pivovarova
 
Практический курс «Основы Data Mining для всех»
Практический курс «Основы Data Mining для всех»Практический курс «Основы Data Mining для всех»
Практический курс «Основы Data Mining для всех»
ScienceHunter1
 
Разрешение лексической неоднозначности
Разрешение лексической неоднозначностиРазрешение лексической неоднозначности
Разрешение лексической неоднозначности
Спецсеминар "Искусственный Интеллект" кафедры АЯ ВМК МГУ
 
Интерпретация моделей машинного обучения
Интерпретация моделей машинного обученияИнтерпретация моделей машинного обучения
Интерпретация моделей машинного обучения
Дмитрий Колодезев
 
Алгоритмы классификации в машинном обучении
Алгоритмы классификации в машинном обученииАлгоритмы классификации в машинном обучении
Алгоритмы классификации в машинном обучении
Witology
 
машинное обучение и анализ данных
машинное обучение и анализ данныхмашинное обучение и анализ данных
машинное обучение и анализ данныхYandex
 
Практический курс «Основы Data Mining»
Практический курс «Основы Data Mining»Практический курс «Основы Data Mining»
Практический курс «Основы Data Mining»
ScienceHunter1
 
C++ Базовый. Занятие 08.
C++ Базовый. Занятие 08.C++ Базовый. Занятие 08.
C++ Базовый. Занятие 08.
Igor Shkulipa
 
Тестирование Нейронных сетей
Тестирование Нейронных сетейТестирование Нейронных сетей
Тестирование Нейронных сетей
SQALab
 
2014-2015_Алгор-структ_Раб-прогр_Мансуров
2014-2015_Алгор-структ_Раб-прогр_Мансуров2014-2015_Алгор-структ_Раб-прогр_Мансуров
2014-2015_Алгор-структ_Раб-прогр_Мансуров????? ????????
 
Алгоритмы и структуры данных BigData для графов большой размерности
Алгоритмы и структуры данных BigData для графов большой размерностиАлгоритмы и структуры данных BigData для графов большой размерности
Алгоритмы и структуры данных BigData для графов большой размерности
Alexey Zinoviev
 
Ainl 2013 bogatyrev_математическая и лингвистическая
Ainl 2013 bogatyrev_математическая и лингвистическаяAinl 2013 bogatyrev_математическая и лингвистическая
Ainl 2013 bogatyrev_математическая и лингвистическаяAINL Conferences
 
АиСД осень 2012 лекция 9
АиСД осень 2012 лекция 9АиСД осень 2012 лекция 9
АиСД осень 2012 лекция 9Technopark
 
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docxEÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
mydrynan
 

Similar to Сергей Терехов — Активное обучение при малой доле примеров с известными ответами (20)

Перечитывая Лео Бреймана
Перечитывая Лео БрейманаПеречитывая Лео Бреймана
Перечитывая Лео Бреймана
 
Сверточные нейронные сети
Сверточные нейронные сетиСверточные нейронные сети
Сверточные нейронные сети
 
1
11
1
 
Введение в машинное обучение
Введение в машинное обучениеВведение в машинное обучение
Введение в машинное обучение
 
03 кластеризация документов
03 кластеризация документов03 кластеризация документов
03 кластеризация документов
 
Практический курс «Основы Data Mining для всех»
Практический курс «Основы Data Mining для всех»Практический курс «Основы Data Mining для всех»
Практический курс «Основы Data Mining для всех»
 
Geo sib 2012
Geo sib 2012Geo sib 2012
Geo sib 2012
 
Разрешение лексической неоднозначности
Разрешение лексической неоднозначностиРазрешение лексической неоднозначности
Разрешение лексической неоднозначности
 
Интерпретация моделей машинного обучения
Интерпретация моделей машинного обученияИнтерпретация моделей машинного обучения
Интерпретация моделей машинного обучения
 
Алгоритмы классификации в машинном обучении
Алгоритмы классификации в машинном обученииАлгоритмы классификации в машинном обучении
Алгоритмы классификации в машинном обучении
 
Рассуждения на основе прецедентов
Рассуждения на основе прецедентовРассуждения на основе прецедентов
Рассуждения на основе прецедентов
 
машинное обучение и анализ данных
машинное обучение и анализ данныхмашинное обучение и анализ данных
машинное обучение и анализ данных
 
Практический курс «Основы Data Mining»
Практический курс «Основы Data Mining»Практический курс «Основы Data Mining»
Практический курс «Основы Data Mining»
 
C++ Базовый. Занятие 08.
C++ Базовый. Занятие 08.C++ Базовый. Занятие 08.
C++ Базовый. Занятие 08.
 
Тестирование Нейронных сетей
Тестирование Нейронных сетейТестирование Нейронных сетей
Тестирование Нейронных сетей
 
2014-2015_Алгор-структ_Раб-прогр_Мансуров
2014-2015_Алгор-структ_Раб-прогр_Мансуров2014-2015_Алгор-структ_Раб-прогр_Мансуров
2014-2015_Алгор-структ_Раб-прогр_Мансуров
 
Алгоритмы и структуры данных BigData для графов большой размерности
Алгоритмы и структуры данных BigData для графов большой размерностиАлгоритмы и структуры данных BigData для графов большой размерности
Алгоритмы и структуры данных BigData для графов большой размерности
 
Ainl 2013 bogatyrev_математическая и лингвистическая
Ainl 2013 bogatyrev_математическая и лингвистическаяAinl 2013 bogatyrev_математическая и лингвистическая
Ainl 2013 bogatyrev_математическая и лингвистическая
 
АиСД осень 2012 лекция 9
АиСД осень 2012 лекция 9АиСД осень 2012 лекция 9
АиСД осень 2012 лекция 9
 
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docxEÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
EÆcient Tree Layout in a Multilevel Memory HierarchySteph.docx
 

More from Yandex

Предсказание оттока игроков из World of Tanks
Предсказание оттока игроков из World of TanksПредсказание оттока игроков из World of Tanks
Предсказание оттока игроков из World of Tanks
Yandex
 
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
Yandex
 
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров ЯндексаСтруктурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
Yandex
 
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров ЯндексаПредставление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
Yandex
 
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
Yandex
 
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
Yandex
 
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
Yandex
 
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
Yandex
 
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
Yandex
 
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
Yandex
 
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
Yandex
 
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
Yandex
 
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеровКак защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
Yandex
 
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
Yandex
 
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
Yandex
 
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
Yandex
 
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
Yandex
 
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
Yandex
 
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
Yandex
 
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
Yandex
 

More from Yandex (20)

Предсказание оттока игроков из World of Tanks
Предсказание оттока игроков из World of TanksПредсказание оттока игроков из World of Tanks
Предсказание оттока игроков из World of Tanks
 
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
Как принять/организовать работу по поисковой оптимизации сайта, Сергей Царик,...
 
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров ЯндексаСтруктурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
Структурированные данные, Юлия Тихоход, лекция в Школе вебмастеров Яндекса
 
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров ЯндексаПредставление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
Представление сайта в поиске, Сергей Лысенко, лекция в Школе вебмастеров Яндекса
 
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
Плохие методы продвижения сайта, Екатерины Гладких, лекция в Школе вебмастеро...
 
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
Основные принципы ранжирования, Сергей Царик и Антон Роменский, лекция в Школ...
 
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
Основные принципы индексирования сайта, Александр Смирнов, лекция в Школе веб...
 
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
Мобильное приложение: как и зачем, Александр Лукин, лекция в Школе вебмастеро...
 
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
Сайты на мобильных устройствах, Олег Ножичкин, лекция в Школе вебмастеров Янд...
 
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
Качественная аналитика сайта, Юрий Батиевский, лекция в Школе вебмастеров Янд...
 
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
Что можно и что нужно измерять на сайте, Петр Аброськин, лекция в Школе вебма...
 
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
Как правильно поставить ТЗ на создание сайта, Алексей Бородкин, лекция в Школ...
 
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеровКак защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
Как защитить свой сайт, Пётр Волков, лекция в Школе вебмастеров
 
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
Как правильно составить структуру сайта, Дмитрий Сатин, лекция в Школе вебмас...
 
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
Технические особенности создания сайта, Дмитрий Васильева, лекция в Школе веб...
 
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
Конструкторы для отдельных элементов сайта, Елена Першина, лекция в Школе веб...
 
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
Контент для интернет-магазинов, Катерина Ерошина, лекция в Школе вебмастеров ...
 
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
Как написать хороший текст для сайта, Катерина Ерошина, лекция в Школе вебмас...
 
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
Usability и дизайн - как не помешать пользователю, Алексей Иванов, лекция в Ш...
 
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
Cайт. Зачем он и каким должен быть, Алексей Иванов, лекция в Школе вебмастеро...
 

Сергей Терехов — Активное обучение при малой доле примеров с известными ответами

  • 1. Редкие сигналы учителя и Активное обучение Semi-supervised and Active Learning Сергей Терехов ООО "НейрОК ТехСофт", http://www.neurokts.ru E-mail: alife@narod.ru
  • 2. В этой лекции: Рассматривается проблема целенаправленного отбора обучающих примеров с известной информацией о классах. Предлагаются методы эффективного использования всех имеющихся данных, независимо от наличия меток классов. Развитые подходы применяются к задаче классификации дефектов труб магистральных нефтепроводов по данным магнитной внутритрубной дефектоскопии. The problem of directed optimal selection of labeled training samples (Active Learning) is considered. Practical methods of utilization of all available data via Semi-Supervised Learning are proposed. The developed approach is applied to recognition and classification of pipeline defects from measurements of magnetic flux leakage defectoscopes.
  • 3. План ● Проблема обучения на данных с редкими метками ● Гибридное обучение с метками и без меток (semi- supervised learning): ○ Алгоритмы классификации на графах ○ Нейросетевой классификатор с оценкой плотности ● Активный отбор данных при обучении (active learning) ○ Общая задача планирования сбора информации ○ Ранжирование и активный выбор примеров ● Анализ дефектоскопических данных ○ Практическая задача: классификация дефектов промышленного трубопровода
  • 4. Обучение "с учителем" и "самостоятельно". Чему учиться? ● Типичная ситуация: доступный корпус данных весьма обширен, однако основной объем наблюдений не содержит смысловых меток. Традиционная постановка базовых задач обучения машин (классификации, регрессии, прогнозирования и др.) крайне затруднена. ● Semi-supervised - промежуточное положение между обучением с учителем и самоорганизацией без учителя. ● Если можно выбирать, то чему учиться? Active learning
  • 5. Три основных проблемных вопроса 1. Пространство входных признаков. Входные компоненты данных необходимо эффективно описывать безотносительно меток-выходов. Имеющейся информации о выходах заведомо недостаточно для адаптивного формирования входных признаков в процессе обучения.
  • 6. Три основных проблемных вопроса 2. Использование примеров без меток при обучении. Это предложение, на первый взгляд, может выглядеть парадоксальным - чем может помочь входной пример, если значение выхода для него не известно? В действительности, информация о распределении входов может значительно сужать класс вероятных моделей, что и может быть использовано, если сигналы учителя редки.
  • 7. Три основных проблемных вопроса 3. Стратегия сбора новых данных о выходах. Направленный отбор данных для оценивания должен максимизировать информативность выходов ("сигналов учителя") при последующем обучении. Сбор данных - тяжелый труд
  • 8. Гибридное обучение ● Идея: Разумеется, отдельные примеры без меток, сами по себе, не могут повысить правдоподобие в задаче классификации с учителем. Однако, пространственное распределение множества обучающих примеров без меток может существенно изменять наши априорные представления о границах классов. ● Формализация: ○ Данные образуют компактные кластерные структуры, ○ Вероятные границы классов не пересекают областей, густо населенных данными, ○ Близкие в пространстве признаков примеры предпочтительно относятся к одному классу.
  • 9. Пример влияния примеров без меток на априорное решение ● Ситуация A: два примера с метками. ● Ситуация Б: те же примеры с метками плюс информация о расположении примеров без меток. ● Априорные границы классов - разные
  • 10. Роль предположений в гибридном обучении ● В приведенном примере выполнены все основные предположения о характере данных, которые благоприятствуют эффективному использованию примеров без меток в задачах классификации (структуры, границы классов - там, где нет данных, и компактность классов). ● Значительное уклонение данных в прикладной задаче от таких предположений может приводить к ухудшению точности классификации при учете примеров без меток.
  • 11. Гибридные алгоритмы на графах ● Граф, узлами которого служат все обучающие примеры (и с метками, и без), а ребрами соединены пары ''близких'' примеров, позволяет выделить однородные области, заполненные данными. ● Классификаторы: ○ поиск границ классов, пересекающих минимальное число ребер графа ○ поиск гармонической функции со значениями, равными +-1 в узлах и известными метками, и взвешенной сумме значений в соседних узлах, если метка данного узла не задана.
  • 12. Гармоническая функция - классификатор на графе Параллельная реализация (спецпроцессоры), алгоритмы линейной алгебры. Скучно...
  • 13. Проблемы с алгоритмами на графах ● Графовые алгоритмы дают лишь трансдуктивное обучение. ○ Другими словами, значения функции-классификатора определены только в точках имеющихся данных. Все интересующие примеры (и с метками, и без) должны быть заранее определены. При добавлении новых данных необходимо заново перестроить классификатор. ● В приложениях, в условиях шума в данных, весьма непросто построить хороший граф соседства. ○ Проблема особенно обостряется, если в разных областях пространства данных ближайшие примеры отстоят друг от друга на разных масштабах. Эта проблема не так остра для графов на основе ближайших соседей, однако в этом случае фиксирование числа соседей может нарушать естественную кластерную структуру в малозаселенных областях данных. Построение сбалансированного графа в общем случае представляет собой нерешенную задачу. ● Сложности с масштабированием при росте объема данных. ○ Надежные вычисления (и, прежде всего, построение самого графа) при объеме данных выше нескольких десятков тысяч примеров затруднены.
  • 14. Графы хороши в "естественных" графовых задачах Перспективными для графовых методов являются приложения, в которых структура графа определена и задана изначально. Примером такой задачи, актуальной в последнее время, служат графы социальных сетей. Эта тематика весьма обширна и заслуживает отдельной лекции. Social Network Mining http://www.cs.purdue.edu/homes/neville/courses/aaai08-tutorial.html
  • 15. Нейросетевой классификатор для данных с метками и без меток Обратимся к методам обучения на примерах с редкими метками, в которых плотность данных моделируется и используется локально (поточечно). Нейронная сеть может быть традиционными способами легко обучена только на порции примеров с метками. Однако, если доля примеров с метками заметно мала, то..... Задача А.Н. Горбаня 1 1 1 1 ? 1 1 1 1
  • 17. Мало меток: Два вопроса ● Трудно надеяться на хорошие обобщающие свойства такой модели - нейронная сеть не в состоянии сформировать существенные для задачи категории в выходных слоях. ● Еще б'ольшие проблемы возникают на входах. При полноценном обучении (на достаточной выборке данных) входные нейроны, в теории, автоматически формируют набор информативных признаков. Даже при богатых данных этот процесс, в действительности, достаточно сложен, и полученные признаки могут оказаться далекими от оптимальных. В нашем случае редких меток для формирования содержательных входных признаков имеющейся информации о метках заведомо недостаточно.
  • 18. Простая и ясная идея ● Попутно с задачей классификации решать и задачу аппроксимации плотности (оценка носителя данных) ● Использовать для решения задачи классификации готовый базис входных слоев, который формируется при адаптации нейронной сети к пространственному распределению (плотности) данных. Для оценки плотности могут быть использованы все имеющиеся примеры (в том числе, без меток)
  • 19. NDBC: Neural Density Based Classifier ● Многослойная нейронная сеть прямого распространения ● Входы: входные сигналы обычного нейросетевого классификатора ● Выходы: ○ K выходов для кодирования K классов ○ Дополнительный выход, пропорциональный локальной плотности данных (Терехов, 2002) ● Обучение: с учителем, на смеси исходных данных и фоновых шумовых (случаных) примеров
  • 20. Почему это будет работать? Разумеется, информативный базис для задачи оценивания условной вероятности p(y|x) трудно построить на основе апроксимации только p(x), однако в последнем случае будет рационально описана топология входного пространства. Примеры, относящиеся к одной связной области, будут порождать схожую активность в выходных нейронных слоях. Тогда формально достаточно одного примера с меткой, чтобы правильно классифицировать всю однородную область. Также автоматически гарантируется и отсутствие рассечения плотной однородной области границей классов - в построенном по p(x) базисе просто нет соответствующих элементов.
  • 21. Аппроксимация плотности Рассматривается (лекция 2002 г.), как обучение с учителем на удвоенном множестве примеров (исходные примеры + случайные примеры). Для исходных примеров целевой выход +1, для случайных -1. Значение выхода a(x) сходится к локальной плотности: P(x) ~ Po (1+a(x)) / (1-a(x)) Здесь нам нужна не сама плотность, а нейронный базис, получающийся в результате аппроксимации. http://alife.narod.ru/lectures/density2002/Density2002.pdf
  • 22. Особенности обучения Веса выхода, ответственного за моделирование плотности, обучаются всегда. Веса нейронов, занятого исходной задачей классификации, используются для формирования градиента только если пример снабжен известной меткой класса. После каждого примера из входного потока для обучения предъявляется пример со случайным входом (без метки). Первый выход нейросети интенсивно участвует в обучении, оценивая плотность истинных на фоне случайных примеров. В скрытых слоях нейронов происходит формирование базиса входных признаков. Остальные выходы используют текущее состояние этого базиса для классификации в соответствии с метками классов.
  • 23. Попутная аппроксимация плотности как регуляризатор Попутная аппроксимация плотности выполняет роль специфической регуляризации. Действительно, класс функций, описывающих решающие правила классификатора при условии одновременной аппроксимации плотности примеров, сужен в сравнении с классом функций без этого условия. Таким образом, в соответствии с теорией А.Н.Тихонова, попутная аппроксимация плотности является регуляризатором для исходной задачи. Упражнение: доказать. Упражнение (***): опровергнуть, либо .... Упражнение (***): к чему все-таки сходится выход, предназначенный для аппроксимации плотности?
  • 24. Полезно Аппроксиматор плотности играет самостоятельную практическую роль в задаче классификации. А именно, его выход для новых примеров указывает на степень их принадлежности к исходной обучающей совокупности данных. Таким образом, мы получаем не только сам результат классификации, но и количественную меру его надежности. Это неоценимо в приложениях, связанных с оценками риска при прогнозировании. Платой за такие удобства служит удвоение набора обучающих данных и несколько более сложная архитектура нейронной сети.
  • 25. Вредно Если обучающие примеры получены регулярной процедурой (например, сетка) для обычного фиттинга некоторой зависимости. Распределение входов не информативно. ?
  • 26. Модельная задача Сложная геометрия данных, два примера с метками классов. Классификация - без ошибок
  • 27. Можно было бы для формирования входных признаков использовать и оригинальные модели deep autoencoding (Hinton) или восстановления (по Яхно). Однако они связаны, так или иначе, с полным восстановлением входа на выходе, если нейронная сеть ''узнала'' данный входной образ. Такое восстановление гораздо более затратно, чем формирование скалярного сигнала ''узнавания'' от аппроксиматора плотности, который достаточен для подкрепления при обучении распознаванию и классификации. ● Не требуется (изнурительная энергетически) конкуренция нейронов ● Трудно (?) обнаружить в биосистемах, т.к. механизм основан на отдельных специфичных (командных) нейронах.
  • 28. Активный отбор данных при обучении В предыдущей главе был предложен практический инструмент, позволяющий эффективно использовать при обучении всю имеющуюся информацию о данных. Обратимся теперь к вопросу о сборе новой информации. При этом, по-прежнему, будем предполагать, что нет дефицита в данных с неизвестной принадлежностью к классам. Поэтому сконцентрируемся только на проблеме сбора новых меток для уже имеющихся примеров.
  • 29. Общая задача оптимального планирования при сборе данных Нашей целью является такой процесс получения новых меток, который скорейшим образом способствует уменьшению ошибки последовательно обучающегося на новой информации классификатора. Эта задача относится к области оптимального планирования, которая допускает несколько базовых постановок, в зависимости от горизонта плана и характера неопределенности в ценности будущих испытаний. Design of Experiments (DoE)
  • 30. Подходы ● Для пространств невысоких размерностей: фиксированные планы эксперимента, например, латинские гиперкубы. ● Если зафиксирован полный ресурс (бюджет) на экспериментирование, то задача может быть сформулирована, как задача стохастической оптимизации. ● В случае, когда информационные вклады отдельных наблюдений (здесь - меток классов) независимы или имеют определенную корреляционную структуру, задача сводится к известной задаче о многоруком бандите (см. популярное изложение http://www.neurokts. ru/docs/Multi_Armed_Bandit_Story.pdf).
  • 31. Ранжирование и активный выбор примеров 1. Производится обучение классификатора на всей имеющейся совокупности данных с метками и без меток. 2. Построенная модель применяется (в режиме распознавания) ко всем данным без меток. Результаты классификации оцениваются по одному из выбранных информационных критериев (ниже) и сортируются в порядке убывания оценки. Удаляются примеры, индикатор локальной плотности для которых ниже выбранного порогового значения. 3. Пример с наивысшим рейтингом предлагается эксперту для назначения метки класса. 4. Принимается решение о пригодности текущей модели, либо о продолжении сбора данных для уточнения модели. В последнем случае процесс повторяется.
  • 32. Роль эксперта в человеко-машинной системе Такой логике, в основном, следуют весьма актуальные в последнее время сценарии интерактивного обучения машин и человеко-машинных систем (interactive machine learning). Непосредственная вовлеченность эксперта или пользователя в процесс синтеза интеллектуальной модели может стать решающим фактором успеха прикладного проекта, и значительно повышает уровень доверия к искусственной системе (хотя она продолжает оставаться ''черным ящиком''). Основная задача рекомендательного алгоритма отбора данных сводится, формально, к уменьшению длины последовательности обработанных экспертом примеров, и, неформально, к нахождению ''интересных'' примеров, отражающих разносторонние аспекты исследуемой системы или процесса.
  • 33. Интеллектуальные человеко-машинные системы создаются в компании "НейрОК ТехСофт" в Троицке www.neurokts.ru
  • 34. Критерии и принципы отбора данных ● Основной критерий (SVM) - это степень близости примера к текущей оцениваемой границе классов (энтропия прогнозируемого распределения вероятностей классов в данной точке). ● Критерий разницы между вероятностью класса победителя и следующего за ним наиболее вероятного класса. ● Другие (эвристические) критерии могут использовать энтропию активностей в слоях скрытых нейронов. Хаотическая активность большого числа нейронов может возникать, если пример ''новый'', и для него еще не сформировался компактный код.
  • 35. Критерии 2 При обучении с одновременной оценкой матожидания и дисперсии выходов (пример -- ранее описанная автором в лекциях система CNet), для предпочтительного назначения меток могут рекомендоваться примеры с высокой дисперсией (неопределенностью) выходов. Этот критерий идентичен подходу, применяемому в алгоритмах на основе условных гауссовых процессов и опорных векторов (Relevance Vector Machine и Informative Vector Machine). Могут использоваться и иные, например, геометрические, принципы рейтингования, как то удаленность примера от других примеров с известными метками, либо выбор примера, способного изменить класс у максимального числа примеров, если их классифицировать методом ближайшего соседа.
  • 36. Модельная задача (3 класса) Точность решения задачи классификации при последовательном добавлении обучающих примеров с метками. Стратегии активного обучения: отбор по максимуму энтропии выходов (кружки, сплошная линия), опережение первого победителя над вторым (кружки, штрих- пунктир), случайный выбор (плюсы, сплошная линия) и отбор по энтропии с попутной аппроксимацией плотности (сплошная линия без маркеров).
  • 37. Проблема: классификация дефектов промышленного нефтепровода Дефекты сварных швов и стенки трубы
  • 38. Измерения - магнитные и ультразвуковые внутритрубные дефектоскопы http://en.wikipedia.org/wiki/Magnetic_flux_leakage
  • 39.
  • 40.
  • 41.
  • 42. Суть вопроса Описанные в предыдущих разделах подходы применялись к промышленным задачам классификации дефектов стенок промышленных нефтепроводов. Информационным сигналом являются локальные искажения потока постоянного магнитного поля, насыщающего стенку трубы. Измерения проводятся промышленными внутритрубными дефектоскопами, следующими в потоке нефти, промагничивающими стенки и измеряющими сигналы утечки потока. В специальной литературе этот метод диагностики носит название ''метод утечки магнитного потока'' (MFL - magnetic flux leakage). Измерения лишьопосредованно отражают форму и характер дефекта, 3D --> 2D
  • 43. Суть вопроса 2 При использовании методов магнитной дефектоскопии основная проблема состоит в установлении связи двумерного магнитного отклика вблизи плоскости расположения дефекта, например у стенки трубы, с истинными трехмерными параметрами дефекта, такого как коррозийная потеря металла, механическая риска и др. Задача получения 3D информации из 2D сигнала является некорректно поставленной, и ее устойчивое решение в данном частном случае может опираться на априорную статистику характерных сигналов, параметры дефектов для которых известны.
  • 44. Этапы промышленной задачи Собственно этапу классификации предшествовали технологические этапы обнаружения и распознавания областей дефектов на фоне сигналов от конструкционных элементов трубопровода и источников ''шума'' вследствие неидеальности трубы и самих диагностических приборов. Затем, для выявленных областей аномалий магнитного сигнала, проводилось их количественное описание на основе системы информативных признаков (выбор которых представляет собой отдельную сложную задачу).
  • 45. Постановка задачи в рамках лекции Каждый из выбранных для анализа 647 дефектов был представлен 24 признаками, включающими свойства магнитной системы, параметры формы магнитного сигнала, контекст расположения и другие свойства. Глубины проникновения в стенку для этих дефектов считались известными В контексте данной лекции, задача представлена в виде классификации векторов признаков в семейство из трех классов, отвечающих различным глубинам дефектов. Эта подзадача важна как для разработки последующей нелинейной регрессионной модели, прогнозирующей размеры дефектов, так и для других задач распознавания (например, классификации дефектов по их типам).
  • 46. Активное обучение Обучение нейросетевого классификатора с двумя скрытыми слоями нейронов с попутной аппроксимацией плотности. Использовалась Байесова регуляризация весов нейронов с априорным распределением Лапласа. Последовательный активный отбор обучающих меток основывался на энтропии выходов. Точность классификации дефектов по глубине (в %) в зависимости от объема выборки данных с метками.
  • 47. Значимость входов Весовые коэффициенты входного слоя обученной нейронной сети с глубокой регуляризацией. Входы (по горизонтали) упорядочены по убыванию коэффициента линейной корреляции с выходами. Видно, что решение основано на использовании 7 входов из 24. При этом 4 из 10 нейронов практически не задействованы. Эта информация получается автоматически, вследствие корректной регуляризации.
  • 48. Основной результат Основной результат - задача классификации успешно решена с использованием лишь 30-35 примеров с метками (около 5% от объема исходных данных). Эти примеры не произвольны, а выявлены путем направленного активного процесса анализа данных.
  • 49. Итоги В практических приложениях, как для промышленных потребителей, так и при интерпретации результатов научных экспериментов, полный корпус имеющихся данных, обычно, заметно богаче, чем выборка наблюдений с известными классами. Задача классификации фундаментальна, и для ее решения целесообразно использовать всю доступную информацию. Затратный процесс сбора информативных меток классов необходимо оптимизировать. В лекции предложены подходы и методы оптимального отбора обучающих примеров, основанные на совмещении этого отбора с процессом последовательно уточняющегося обучения классификатора. Направления активного обучения и гибридного обучения (с метками и без) бурно развиваются в последнее время. Эти исследования являются, по мнению автора, замечательным примером, когда теоретические построения и результаты напрямую сопрягаются с практическими потребностями пользователей обучающихся машин и алгоритмов.
  • 50. Спасибо за внимание! Сергей Терехов ООО НейрОК Техсофт. г. Троицк alife@narod.ru