SlideShare a Scribd company logo
1 of 16
Искусственные нейронные сети
Математическая модель нейрона
Была предложена в 1943 году Урнером Мак-Каллоком и
Уолтером Питтсом как пороговое устройство с
несколькими входами и одним (бинарным) выходом.
Искусственные нейронные сети
Многослойный персептрон
Количество входных и выходных элементов в многослойном персептроне
определяется условиями задачи. Количество скрытых слоев может быть
различным, в простейшем случае только один скрытый слой.
Свойства:
•Каждый нейрон сети имеет гладкую нелинейную функцию активации
•Несколько скрытых слоев
•Высокая связность
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Обучение алгоритмом обратного распространения ошибки предполагает два
прохода по всем слоям сети: прямого и обратного.
При прямом проходе входной вектор подается на входной слой нейронной
сети, после чего распространяется по сети от слоя к слою. В результате
генерируется набор выходных сигналов, который и является фактической
реакцией сети на данный входной образ.
Во время прямого прохода все синаптические веса сети фиксированы. В
о время обратного прохода все синаптические веса настраиваются в
соответствии с правилом коррекции ошибок
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Для иллюстрации этого процесса используем нейронную сеть и имеющую
два входа и один выход и два скрытых слоя:
Сигнал е – это взвешенная сумма входных сигналов
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Чтобы обучить нейронную сеть нужно подготовить обучающий тестовые
наборы данных.
В нашем случае, каждый пример тренировочные иди проверочных
данных состоят из входных сигналов (х1 и х2) и желаемого результата z.
Обучение – это последовательность итераций (повторений).
В каждой итерации весовые коэффициенты нейронов подгоняются с
использованием новых данных из тренировочных примеров.
Изменение весовых коэффициентов и составляют суть алгоритма,
описанного ниже.
Каждый шаг обучения начинается с воздействия входных сигналов
из тренировочных примеров. После этого можно определить
значения выходных сигналов для всех нейронов в каждом слое сети.
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Вычисляется
значения
выходного
вектора
Y=[y1,y2,y3]
для первого
скрытого
слоя
Символы W(xm)n представляют вес
связи между сетевым входом xm и
нейрона n во входном слое.
Символы yn представляют выходной
сигнал нейрона n.
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Вычисляется значения
выходного вектора
Y=[y4,y5] для второго
скрытого слоя
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Рассчитывается выходное значение y для все сети
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
На следующем шаге алгоритма, выходной сигнала сети y сравнивается с
желаемым выходным сигналом z, который хранится в тренировочных
данных.
Разница между этими двумя сигналами называется ошибкой d выходного
слоя сети.
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Невозможно непосредственно вычислить сигнал ошибки
для внутренних нейронов, потому что выходные значения
этих нейронов, неизвестны.
На протяжении многих лет был неизвестен эффективный
метод для обучения многослойной сети.
Только в середине восьмидесятых годов был разработан
алгоритм обратного распространения ошибки.
Идея заключается в распространении сигнала ошибки d
(вычисленного в шаге обучения) обратно на все нейроны,
чьи выходные сигналы были входящими для последнего
нейрона.
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Весовые коэффициенты Wmn, используемые для обратного
распространения ошибки, равны тем же коэффициентам, что
использовались во время вычисления выходного сигнала. Только
изменяется направление потока данных (сигналы передаются от
выхода ко входу).
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Когда вычислена величина ошибки
сигнала для каждого нейрона – можно
скорректировать весовые коэффициенты.
Этот процесс повторяется для всех
слоёв сети. Если ошибка пришла от
нескольких нейронов — она
суммируются:
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Искусственные нейронные сети
Алгоритм обучения многослойной нейронной сети
методом обратного распространения ошибки
Коэффициент ƞ влияет на скорость обучения сети.
Есть несколько методов для выбора этого параметра.
Первый способ — начать учебный процесс с большим
значением параметра ƞ. Во время коррекции весовых
коэффициентов, параметр постепенно уменьшают.
Второй способ— более сложный метод обучения, начинается с
малым значением параметра ƞ.
В процессе обучения параметр увеличивается, а затем вновь
уменьшается на завершающей стадии обучения.
Начало учебного процесса с низким значением параметра ƞ
позволяет определить знак весовых коэффициентов.

More Related Content

Similar to Многослойній перцептрон- АОРО.ppt

Лекция №13 "Глубокие нейронные сети"
Лекция №13 "Глубокие нейронные сети" Лекция №13 "Глубокие нейронные сети"
Лекция №13 "Глубокие нейронные сети" Technosphere1
 
!Predictive analytics part_2
!Predictive analytics part_2!Predictive analytics part_2
!Predictive analytics part_2Vladimir Krylov
 
распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»seik0ixtem
 
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Technosphere1
 
Нейролингвистический анализатор для распознавания голосовых данных на основе ИНН
Нейролингвистический анализатор для распознавания голосовых данных на основе ИНННейролингвистический анализатор для распознавания голосовых данных на основе ИНН
Нейролингвистический анализатор для распознавания голосовых данных на основе ИННKonstantin Zavarov, ICP
 
Deep Learning and Convolutional Networks
Deep Learning and Convolutional NetworksDeep Learning and Convolutional Networks
Deep Learning and Convolutional NetworksAlignedResearch
 
Расчёт дифракционных картин
Расчёт дифракционных картинРасчёт дифракционных картин
Расчёт дифракционных картинTimur Shaporev
 
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРА
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРААЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРА
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРАITMO University
 
Доклад к защите кандидатской диссертации
Доклад к защите кандидатской диссертацииДоклад к защите кандидатской диссертации
Доклад к защите кандидатской диссертацииАндрей Гайнулин
 

Similar to Многослойній перцептрон- АОРО.ppt (16)

Лекция №13 "Глубокие нейронные сети"
Лекция №13 "Глубокие нейронные сети" Лекция №13 "Глубокие нейронные сети"
Лекция №13 "Глубокие нейронные сети"
 
!Predictive analytics part_2
!Predictive analytics part_2!Predictive analytics part_2
!Predictive analytics part_2
 
Лекция 6
Лекция 6Лекция 6
Лекция 6
 
распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»распознавание автомобильного номера в условиях зашумлённости»
распознавание автомобильного номера в условиях зашумлённости»
 
Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана" Лекция №12 "Ограниченная машина Больцмана"
Лекция №12 "Ограниченная машина Больцмана"
 
Нейролингвистический анализатор для распознавания голосовых данных на основе ИНН
Нейролингвистический анализатор для распознавания голосовых данных на основе ИНННейролингвистический анализатор для распознавания голосовых данных на основе ИНН
Нейролингвистический анализатор для распознавания голосовых данных на основе ИНН
 
Лекция 3
Лекция 3Лекция 3
Лекция 3
 
23
2323
23
 
Deep Learning and Convolutional Networks
Deep Learning and Convolutional NetworksDeep Learning and Convolutional Networks
Deep Learning and Convolutional Networks
 
Лекция 2
Лекция 2Лекция 2
Лекция 2
 
Расчёт дифракционных картин
Расчёт дифракционных картинРасчёт дифракционных картин
Расчёт дифракционных картин
 
нс2
нс2нс2
нс2
 
7114
71147114
7114
 
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРА
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРААЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРА
АЛГОРИТМИЧЕСКАЯ КОРРЕКЦИЯ ПОГРЕШНОСТЕЙ ПОРТАТИВНОГО СПЕКТРОФОТОМЕТРА
 
Доклад к защите кандидатской диссертации
Доклад к защите кандидатской диссертацииДоклад к защите кандидатской диссертации
Доклад к защите кандидатской диссертации
 
NeuralNetworks_intro
NeuralNetworks_introNeuralNetworks_intro
NeuralNetworks_intro
 

Многослойній перцептрон- АОРО.ppt

  • 1. Искусственные нейронные сети Математическая модель нейрона Была предложена в 1943 году Урнером Мак-Каллоком и Уолтером Питтсом как пороговое устройство с несколькими входами и одним (бинарным) выходом.
  • 2. Искусственные нейронные сети Многослойный персептрон Количество входных и выходных элементов в многослойном персептроне определяется условиями задачи. Количество скрытых слоев может быть различным, в простейшем случае только один скрытый слой. Свойства: •Каждый нейрон сети имеет гладкую нелинейную функцию активации •Несколько скрытых слоев •Высокая связность
  • 3. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Обучение алгоритмом обратного распространения ошибки предполагает два прохода по всем слоям сети: прямого и обратного. При прямом проходе входной вектор подается на входной слой нейронной сети, после чего распространяется по сети от слоя к слою. В результате генерируется набор выходных сигналов, который и является фактической реакцией сети на данный входной образ. Во время прямого прохода все синаптические веса сети фиксированы. В о время обратного прохода все синаптические веса настраиваются в соответствии с правилом коррекции ошибок
  • 4. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Для иллюстрации этого процесса используем нейронную сеть и имеющую два входа и один выход и два скрытых слоя: Сигнал е – это взвешенная сумма входных сигналов
  • 5. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Чтобы обучить нейронную сеть нужно подготовить обучающий тестовые наборы данных. В нашем случае, каждый пример тренировочные иди проверочных данных состоят из входных сигналов (х1 и х2) и желаемого результата z. Обучение – это последовательность итераций (повторений). В каждой итерации весовые коэффициенты нейронов подгоняются с использованием новых данных из тренировочных примеров. Изменение весовых коэффициентов и составляют суть алгоритма, описанного ниже. Каждый шаг обучения начинается с воздействия входных сигналов из тренировочных примеров. После этого можно определить значения выходных сигналов для всех нейронов в каждом слое сети.
  • 6. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Вычисляется значения выходного вектора Y=[y1,y2,y3] для первого скрытого слоя Символы W(xm)n представляют вес связи между сетевым входом xm и нейрона n во входном слое. Символы yn представляют выходной сигнал нейрона n.
  • 7. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Вычисляется значения выходного вектора Y=[y4,y5] для второго скрытого слоя
  • 8. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Рассчитывается выходное значение y для все сети
  • 9. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки На следующем шаге алгоритма, выходной сигнала сети y сравнивается с желаемым выходным сигналом z, который хранится в тренировочных данных. Разница между этими двумя сигналами называется ошибкой d выходного слоя сети.
  • 10. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Невозможно непосредственно вычислить сигнал ошибки для внутренних нейронов, потому что выходные значения этих нейронов, неизвестны. На протяжении многих лет был неизвестен эффективный метод для обучения многослойной сети. Только в середине восьмидесятых годов был разработан алгоритм обратного распространения ошибки. Идея заключается в распространении сигнала ошибки d (вычисленного в шаге обучения) обратно на все нейроны, чьи выходные сигналы были входящими для последнего нейрона.
  • 11. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки
  • 12. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Весовые коэффициенты Wmn, используемые для обратного распространения ошибки, равны тем же коэффициентам, что использовались во время вычисления выходного сигнала. Только изменяется направление потока данных (сигналы передаются от выхода ко входу).
  • 13. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Когда вычислена величина ошибки сигнала для каждого нейрона – можно скорректировать весовые коэффициенты. Этот процесс повторяется для всех слоёв сети. Если ошибка пришла от нескольких нейронов — она суммируются:
  • 14. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки
  • 15. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки
  • 16. Искусственные нейронные сети Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки Коэффициент ƞ влияет на скорость обучения сети. Есть несколько методов для выбора этого параметра. Первый способ — начать учебный процесс с большим значением параметра ƞ. Во время коррекции весовых коэффициентов, параметр постепенно уменьшают. Второй способ— более сложный метод обучения, начинается с малым значением параметра ƞ. В процессе обучения параметр увеличивается, а затем вновь уменьшается на завершающей стадии обучения. Начало учебного процесса с низким значением параметра ƞ позволяет определить знак весовых коэффициентов.