SlideShare a Scribd company logo
1 of 17
Лекция  2 .  Однослойные НС.
Структура искусственного нейрона f(u) -  активационная функция; f(u) -  обычно нелинейная.
Бинарный нейрон - пороговая активационная функция.
Функции активации. Сигмоида  Сигмоидальная ( S- образная) функция: параметр    выбирается пользователем.
Функции активации. Сигмоида  Влияние параметра    на форму кривой. сигмоидальная функция превращается в пороговую. При
Функции активации. Гиперболический тангенс Функция гиперболический тангенс:
Режимы работы НС. Обучение Цель обучение - вычисление весов синаптических связей сети. Обучение проводится на примерах. Обучающая выборка:  S={(x i ,d i )|i=1,2,…,N} .  x i  –  входной вектор ;  d i   -  вектор, определяющий класс входного вектора . Процесс обучения заключается в последовательном применении НС к векторам из обучающей выборки с одновременной коррекцией весов синаптических связей. Процесс обучения состоит из набора итераций, в рамках каждой из них сеть обучается на всех примерах из обучающей выборки.
Режимы работы НС. Обучение Пусть  g i  - выход НС для входного вектора  x i . Смыслом алгоритма обучения является сравнение желаемого ( d i ) и реального  ( g i ) выходов и корректировка всех весов в сети таким образом, чтобы новый выходной вектор для этого же входного вектора был «ближе» к желаемому, чем предыдущий. Критерий окончания процесса обучения - суммарная ошибка на всех примерах обучающей выборки должна быть меньше заданного порога. Проблемы, возникающие на этапе обучения: 1. Выбор алгоритма обучения. 2. Построение обучающей выборки. 3. Начальная инициализация весов. 4. Определение момента окончания процесса обучения.
Режимы работы НС. Функционирование НС Вход НС: вектор неизвестного класса. Проведение вычислений в нейронах внутренних слоев. Выход НС: вектор  g , характеризующий класс входного вектора.
Задача классификации Рассмотрим множества точек на плоскости:  Можно ли построить НС, классифицирующую точки из  S 1   и  S 2 ?
Однослойный персептрон. Линейная разделимость Однослойная НС позволяет решать задачи классификации, в которых образы линейно разделимы. Персептрон - модель МакКаллока-Питса с соответствующей стратегией обучения. 1 слой, где проводятся вычисления. Знак выражения  определяет класс, к которому будет отнесена точка ( x 1 ,x 2 ) - разделяющая прямая.
Однослойный персептрон. Обучение. Бинарный нейрон: Обучающая выборка: ( x i ,d i ) Правило персептрона (обучение с учителем): 1. Если  y   совпадает с ожидаемым значением  d , то веса не изменяются. 2. Если  y =0,  d =1, то 3. Если  y =1,  d =0, то Правило Видроу-Хоффа:
Обучение однослойной НС, состоящей из сигмоидальных нейронов Функция активации: Принцип обучения - минимизация целевой функции: d  - желаемый выход y -  реальный выход Метод обучения - градиентный спуск.   - коэффициент обучения, выбирается из интервала (0,1).
Обучение однослойной НС, состоящей из сигмоидальных нейронов Обучающая выборка:  S={(X i ,d i )|i=1,2,…,N} .
Обучение однослойной НС, состоящей из сигмоидальных нейронов Особенности сигмоидальной функции и функции гиперболического тангенса: сигмоида: гиперболический тангенс:  Проблема градиентного метода - достижение локального минимума. Модификация градиентного метода обучения:
Обучение однослойной НС.  Алгоритм  ADALINE Однослойный персептрон. d  - желаемый выход. y -  реальный выход. - функция ошибки для градиентного спуска.  Функция активации:  Функция ошибки  ADALINE: Значения весов являются точками минимума квадратичной функции.
Критерии окончания обучения. Переобучение ,[object Object],[object Object],[object Object],[object Object],[object Object]

More Related Content

Similar to Лекция 2

20111202 machine learning_nikolenko_lecture08
20111202 machine learning_nikolenko_lecture0820111202 machine learning_nikolenko_lecture08
20111202 machine learning_nikolenko_lecture08Computer Science Club
 
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...RF-Lab
 
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Technosphere1
 
Михаил Александров, Индуктивное моделирование
Михаил Александров, Индуктивное моделированиеМихаил Александров, Индуктивное моделирование
Михаил Александров, Индуктивное моделированиеLidia Pivovarova
 
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...ITMO University
 
CV2011 Lecture 7. Recognition
CV2011 Lecture 7. RecognitionCV2011 Lecture 7. Recognition
CV2011 Lecture 7. RecognitionAnton Konushin
 
распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»seik0ixtem
 
Domain-тестирование
Domain-тестированиеDomain-тестирование
Domain-тестированиеSPB SQA Group
 
Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptAleksandrGozhyj
 
Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...Natalia Smirnova
 
чернякова г.в.
чернякова г.в.чернякова г.в.
чернякова г.в.sharikdp
 
Методы обучения линейных моделей
Методы обучения линейных моделейМетоды обучения линейных моделей
Методы обучения линейных моделейAlex
 
Сегментация изображений в компьютерной графике.ppt
Сегментация  изображений в компьютерной графике.pptСегментация  изображений в компьютерной графике.ppt
Сегментация изображений в компьютерной графике.pptssuser413a98
 

Similar to Лекция 2 (20)

20111202 machine learning_nikolenko_lecture08
20111202 machine learning_nikolenko_lecture0820111202 machine learning_nikolenko_lecture08
20111202 machine learning_nikolenko_lecture08
 
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...
2004 Дипломный проект студентки Балашовой В.Д. на тему: «Обработка изображени...
 
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана"
 
87
8787
87
 
Михаил Александров, Индуктивное моделирование
Михаил Александров, Индуктивное моделированиеМихаил Александров, Индуктивное моделирование
Михаил Александров, Индуктивное моделирование
 
0907.0229
0907.02290907.0229
0907.0229
 
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
 
CV2011 Lecture 7. Recognition
CV2011 Lecture 7. RecognitionCV2011 Lecture 7. Recognition
CV2011 Lecture 7. Recognition
 
распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»
 
Domain-тестирование
Domain-тестированиеDomain-тестирование
Domain-тестирование
 
урок 1
урок 1урок 1
урок 1
 
Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.ppt
 
вссда2012 2
вссда2012 2вссда2012 2
вссда2012 2
 
Лекция 4
Лекция 4Лекция 4
Лекция 4
 
Лекция 3
Лекция 3Лекция 3
Лекция 3
 
лекция 32
лекция 32лекция 32
лекция 32
 
Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...
 
чернякова г.в.
чернякова г.в.чернякова г.в.
чернякова г.в.
 
Методы обучения линейных моделей
Методы обучения линейных моделейМетоды обучения линейных моделей
Методы обучения линейных моделей
 
Сегментация изображений в компьютерной графике.ppt
Сегментация  изображений в компьютерной графике.pptСегментация  изображений в компьютерной графике.ppt
Сегментация изображений в компьютерной графике.ppt
 

Лекция 2

  • 1. Лекция 2 . Однослойные НС.
  • 2. Структура искусственного нейрона f(u) - активационная функция; f(u) - обычно нелинейная.
  • 3. Бинарный нейрон - пороговая активационная функция.
  • 4. Функции активации. Сигмоида Сигмоидальная ( S- образная) функция: параметр  выбирается пользователем.
  • 5. Функции активации. Сигмоида Влияние параметра  на форму кривой. сигмоидальная функция превращается в пороговую. При
  • 6. Функции активации. Гиперболический тангенс Функция гиперболический тангенс:
  • 7. Режимы работы НС. Обучение Цель обучение - вычисление весов синаптических связей сети. Обучение проводится на примерах. Обучающая выборка: S={(x i ,d i )|i=1,2,…,N} . x i – входной вектор ; d i - вектор, определяющий класс входного вектора . Процесс обучения заключается в последовательном применении НС к векторам из обучающей выборки с одновременной коррекцией весов синаптических связей. Процесс обучения состоит из набора итераций, в рамках каждой из них сеть обучается на всех примерах из обучающей выборки.
  • 8. Режимы работы НС. Обучение Пусть g i - выход НС для входного вектора x i . Смыслом алгоритма обучения является сравнение желаемого ( d i ) и реального ( g i ) выходов и корректировка всех весов в сети таким образом, чтобы новый выходной вектор для этого же входного вектора был «ближе» к желаемому, чем предыдущий. Критерий окончания процесса обучения - суммарная ошибка на всех примерах обучающей выборки должна быть меньше заданного порога. Проблемы, возникающие на этапе обучения: 1. Выбор алгоритма обучения. 2. Построение обучающей выборки. 3. Начальная инициализация весов. 4. Определение момента окончания процесса обучения.
  • 9. Режимы работы НС. Функционирование НС Вход НС: вектор неизвестного класса. Проведение вычислений в нейронах внутренних слоев. Выход НС: вектор g , характеризующий класс входного вектора.
  • 10. Задача классификации Рассмотрим множества точек на плоскости: Можно ли построить НС, классифицирующую точки из S 1 и S 2 ?
  • 11. Однослойный персептрон. Линейная разделимость Однослойная НС позволяет решать задачи классификации, в которых образы линейно разделимы. Персептрон - модель МакКаллока-Питса с соответствующей стратегией обучения. 1 слой, где проводятся вычисления. Знак выражения определяет класс, к которому будет отнесена точка ( x 1 ,x 2 ) - разделяющая прямая.
  • 12. Однослойный персептрон. Обучение. Бинарный нейрон: Обучающая выборка: ( x i ,d i ) Правило персептрона (обучение с учителем): 1. Если y совпадает с ожидаемым значением d , то веса не изменяются. 2. Если y =0, d =1, то 3. Если y =1, d =0, то Правило Видроу-Хоффа:
  • 13. Обучение однослойной НС, состоящей из сигмоидальных нейронов Функция активации: Принцип обучения - минимизация целевой функции: d - желаемый выход y - реальный выход Метод обучения - градиентный спуск.  - коэффициент обучения, выбирается из интервала (0,1).
  • 14. Обучение однослойной НС, состоящей из сигмоидальных нейронов Обучающая выборка: S={(X i ,d i )|i=1,2,…,N} .
  • 15. Обучение однослойной НС, состоящей из сигмоидальных нейронов Особенности сигмоидальной функции и функции гиперболического тангенса: сигмоида: гиперболический тангенс: Проблема градиентного метода - достижение локального минимума. Модификация градиентного метода обучения:
  • 16. Обучение однослойной НС. Алгоритм ADALINE Однослойный персептрон. d - желаемый выход. y - реальный выход. - функция ошибки для градиентного спуска. Функция активации: Функция ошибки ADALINE: Значения весов являются точками минимума квадратичной функции.
  • 17.

Editor's Notes

  1. Форма функции регулирует степень усиления сигнала.
  2. Общая схема алгоритма обучения
  3. Проблемы с алгоритмом обучения персептрона: Необходимость линейной разделимости Алгоритм сойдется за конечное время Не доказано, что он быстрее полного перебора