SlideShare a Scribd company logo
Нейрон и простейший перцептрон
Исламов Искандер
ноябрь 2012
Исламов Искандер Нейрон и простейший перцептрон
Основные понятия:
Формальный нейрон Мак-Каллока - Питтса
Перцептрон
Обучение перцептрона
Дельта-правило
Исламов Искандер Нейрон и простейший перцептрон
Основные понятия:
Формальный нейрон Мак-Каллока - Питтса
Перцептрон
Обучение перцептрона
Дельта-правило
Исламов Искандер Нейрон и простейший перцептрон
Основные понятия:
Формальный нейрон Мак-Каллока - Питтса
Перцептрон
Обучение перцептрона
Дельта-правило
Исламов Искандер Нейрон и простейший перцептрон
Основные понятия:
Формальный нейрон Мак-Каллока - Питтса
Перцептрон
Обучение перцептрона
Дельта-правило
Исламов Искандер Нейрон и простейший перцептрон
Формальный нейрон Мак-Каллока - Питтса:
x =
N
i=1
wi ui
y =



1 при
N
i=1
wi ui ≥ v
0 при
N
i=1
wi ui < v
иными словами:
y = f
N
i=0
wi ui
где: u1...uN − входные сигналы,
w1...wN − синаптические веса,
y − выходной сигнал нейрона, v − пороговое значение
Исламов Искандер Нейрон и простейший перцептрон
Формальный нейрон Мак-Каллока - Питтса:
f (x) =
1 при x ≥ 0
0 при x < 0
f (x) =
1 при x ≥ 0
−1 при x < 0
Исламов Искандер Нейрон и простейший перцептрон
Формальный нейрон Мак-Каллока - Питтса:
f (x) =



1 при x ≥ 0
−1 при x < 0
x при |x| ≤ 1
Не стоит, однако, забывать что подобные функции
активации использовались на начальной фазе
моделирования неронов.
Исламов Искандер Нейрон и простейший перцептрон
Формальный нейрон Мак-Каллока - Питтса:
В настоящий момент чаще всего используется сигмодальная функция,
ключ к продвинутым нейронным сетям, единственный путь к созданию
нейронных сетей, которые смогут давать нелинейные ответы и
моделировать нелинейные процессы.
f (x) = 1
1+e−βx
но при β → ∞
f (x) = tanh(αx
2 ) = 1−e−αx
1+e−αx >
0
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Алгоритм обучения
перцептона:
1)Присвоить синаптическим весам
w1...wN некоторые начальные
значения. Например, нулю.
2)Подать входной образ X и
вычислить OUT. Если OUT
правильный, то переходят к шагу 4.
Иначе к шагу 3.
3)Применяя дельта-правило
вычислить новые значения
синаптических весов.
4)Повторить шаги 2-4 данного
алгоритма обучения персептрона
пока сеть не станет выдавать
ожидаемый выход на векторах из
обучающей выборки или пока
отклонение не станет ниже
некоторого порога.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Алгоритм обучения
перцептона:
1)Присвоить синаптическим весам
w1...wN некоторые начальные
значения. Например, нулю.
2)Подать входной образ X и
вычислить OUT. Если OUT
правильный, то переходят к шагу 4.
Иначе к шагу 3.
3)Применяя дельта-правило
вычислить новые значения
синаптических весов.
4)Повторить шаги 2-4 данного
алгоритма обучения персептрона
пока сеть не станет выдавать
ожидаемый выход на векторах из
обучающей выборки или пока
отклонение не станет ниже
некоторого порога.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Алгоритм обучения
перцептона:
1)Присвоить синаптическим весам
w1...wN некоторые начальные
значения. Например, нулю.
2)Подать входной образ X и
вычислить OUT. Если OUT
правильный, то переходят к шагу 4.
Иначе к шагу 3.
3)Применяя дельта-правило
вычислить новые значения
синаптических весов.
4)Повторить шаги 2-4 данного
алгоритма обучения персептрона
пока сеть не станет выдавать
ожидаемый выход на векторах из
обучающей выборки или пока
отклонение не станет ниже
некоторого порога.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Алгоритм обучения
перцептона:
1)Присвоить синаптическим весам
w1...wN некоторые начальные
значения. Например, нулю.
2)Подать входной образ X и
вычислить OUT. Если OUT
правильный, то переходят к шагу 4.
Иначе к шагу 3.
3)Применяя дельта-правило
вычислить новые значения
синаптических весов.
4)Повторить шаги 2-4 данного
алгоритма обучения персептрона
пока сеть не станет выдавать
ожидаемый выход на векторах из
обучающей выборки или пока
отклонение не станет ниже
некоторого порога.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Алгоритм обучения
перцептона:
1)Присвоить синаптическим весам
w1...wN некоторые начальные
значения. Например, нулю.
2)Подать входной образ X и
вычислить OUT. Если OUT
правильный, то переходят к шагу 4.
Иначе к шагу 3.
3)Применяя дельта-правило
вычислить новые значения
синаптических весов.
4)Повторить шаги 2-4 данного
алгоритма обучения персептрона
пока сеть не станет выдавать
ожидаемый выход на векторах из
обучающей выборки или пока
отклонение не станет ниже
некоторого порога.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Таким образом логика обучения персептрона следующая:
если сигнал персептрона при некотором образе верен, то
ничего корректировать не надо, если нет – производится
корректировка весов.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Правила корректировки весов следующие:
1. Если OUT неверен и равен нулю, то необходимо
увеличить веса тех входов, на которые была подана
единица.
2. Если OUT неверен и равен единице, то необходимо
уменьшить веса тех входов, на которые была подана
единица.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Правила корректировки весов следующие:
1. Если OUT неверен и равен нулю, то необходимо
увеличить веса тех входов, на которые была подана
единица.
2. Если OUT неверен и равен единице, то необходимо
уменьшить веса тех входов, на которые была подана
единица.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Правила корректировки весов следующие:
1. Если OUT неверен и равен нулю, то необходимо
увеличить веса тех входов, на которые была подана
единица.
2. Если OUT неверен и равен единице, то необходимо
уменьшить веса тех входов, на которые была подана
единица.
Исламов Искандер Нейрон и простейший перцептрон
Перцептон и алогритмы его обучения:
Правила корректировки весов следующие:
1. Если OUT неверен и равен нулю, то необходимо
увеличить веса тех входов, на которые была подана
единица.
2. Если OUT неверен и равен единице, то необходимо
уменьшить веса тех входов, на которые была подана
единица.
Исламов Искандер Нейрон и простейший перцептрон
Дельта-правило:
Дельта-правило является математической моделью
правил корректировки весов. Введем величину δ, которая
равна разности между требуемым T и реальным OUT
выходом:
δ
δ = T − OUT
Тогда, веса персептрона после коррекции будут равны:
wN(i + 1)
wN(i + 1) = wN(i) + ηδxN
где: i - номер текущей итерации обучения персептрона;
η - коэффициент скорости обучения, позволяет управлять средней
величиной изменения весов;
xN -величина входа соответствующая wN синаптическому весу.
Добавление величины xN в произведение позволяет избежать изменение
тех весов, которым на входе соответствовал ноль.
Исламов Искандер Нейрон и простейший перцептрон
Дельта-правило:
Дельта-правило является математической моделью
правил корректировки весов. Введем величину δ, которая
равна разности между требуемым T и реальным OUT
выходом:
δ
δ = T − OUT
Тогда, веса персептрона после коррекции будут равны:
wN(i + 1)
wN(i + 1) = wN(i) + ηδxN
где: i - номер текущей итерации обучения персептрона;
η - коэффициент скорости обучения, позволяет управлять средней
величиной изменения весов;
xN -величина входа соответствующая wN синаптическому весу.
Добавление величины xN в произведение позволяет избежать изменение
тех весов, которым на входе соответствовал ноль.
Исламов Искандер Нейрон и простейший перцептрон
Дельта-правило:
Дельта-правило является математической моделью
правил корректировки весов. Введем величину δ, которая
равна разности между требуемым T и реальным OUT
выходом:
δ
δ = T − OUT
Тогда, веса персептрона после коррекции будут равны:
wN(i + 1)
wN(i + 1) = wN(i) + ηδxN
где: i - номер текущей итерации обучения персептрона;
η - коэффициент скорости обучения, позволяет управлять средней
величиной изменения весов;
xN -величина входа соответствующая wN синаптическому весу.
Добавление величины xN в произведение позволяет избежать изменение
тех весов, которым на входе соответствовал ноль.
Исламов Искандер Нейрон и простейший перцептрон
Дельта-правило:
Дельта-правило является математической моделью
правил корректировки весов. Введем величину δ, которая
равна разности между требуемым T и реальным OUT
выходом:
δ
δ = T − OUT
Тогда, веса персептрона после коррекции будут равны:
wN(i + 1)
wN(i + 1) = wN(i) + ηδxN
где: i - номер текущей итерации обучения персептрона;
η - коэффициент скорости обучения, позволяет управлять средней
величиной изменения весов;
xN -величина входа соответствующая wN синаптическому весу.
Добавление величины xN в произведение позволяет избежать изменение
тех весов, которым на входе соответствовал ноль.
Исламов Искандер Нейрон и простейший перцептрон
Обучение:
w1u1+w2u2−v = 0 - граница
Задача неронной сети в общем случае заключается в
разнесении вектора входных сигналов на 2 класса L1 и L2.
Если выходной сигнал принимает значение 1, то он
относит его к "классу"L1, если-0, то к "классу"L2.
Исламов Искандер Нейрон и простейший перцептрон

More Related Content

Featured

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot
Marius Sescu
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPT
Expeed Software
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage Engineerings
Pixeldarts
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
ThinkNow
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
marketingartwork
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
Skeleton Technologies
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
Kurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
SpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Lily Ray
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
Rajiv Jayarajah, MAppComm, ACC
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
Christy Abraham Joy
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
Vit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
MindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
RachelPearson36
 

Featured (20)

2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot2024 State of Marketing Report – by Hubspot
2024 State of Marketing Report – by Hubspot
 
Everything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPTEverything You Need To Know About ChatGPT
Everything You Need To Know About ChatGPT
 
Product Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage EngineeringsProduct Design Trends in 2024 | Teenage Engineerings
Product Design Trends in 2024 | Teenage Engineerings
 
How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 

Beamer

  • 1. Нейрон и простейший перцептрон Исламов Искандер ноябрь 2012 Исламов Искандер Нейрон и простейший перцептрон
  • 2. Основные понятия: Формальный нейрон Мак-Каллока - Питтса Перцептрон Обучение перцептрона Дельта-правило Исламов Искандер Нейрон и простейший перцептрон
  • 3. Основные понятия: Формальный нейрон Мак-Каллока - Питтса Перцептрон Обучение перцептрона Дельта-правило Исламов Искандер Нейрон и простейший перцептрон
  • 4. Основные понятия: Формальный нейрон Мак-Каллока - Питтса Перцептрон Обучение перцептрона Дельта-правило Исламов Искандер Нейрон и простейший перцептрон
  • 5. Основные понятия: Формальный нейрон Мак-Каллока - Питтса Перцептрон Обучение перцептрона Дельта-правило Исламов Искандер Нейрон и простейший перцептрон
  • 6. Формальный нейрон Мак-Каллока - Питтса: x = N i=1 wi ui y =    1 при N i=1 wi ui ≥ v 0 при N i=1 wi ui < v иными словами: y = f N i=0 wi ui где: u1...uN − входные сигналы, w1...wN − синаптические веса, y − выходной сигнал нейрона, v − пороговое значение Исламов Искандер Нейрон и простейший перцептрон
  • 7. Формальный нейрон Мак-Каллока - Питтса: f (x) = 1 при x ≥ 0 0 при x < 0 f (x) = 1 при x ≥ 0 −1 при x < 0 Исламов Искандер Нейрон и простейший перцептрон
  • 8. Формальный нейрон Мак-Каллока - Питтса: f (x) =    1 при x ≥ 0 −1 при x < 0 x при |x| ≤ 1 Не стоит, однако, забывать что подобные функции активации использовались на начальной фазе моделирования неронов. Исламов Искандер Нейрон и простейший перцептрон
  • 9. Формальный нейрон Мак-Каллока - Питтса: В настоящий момент чаще всего используется сигмодальная функция, ключ к продвинутым нейронным сетям, единственный путь к созданию нейронных сетей, которые смогут давать нелинейные ответы и моделировать нелинейные процессы. f (x) = 1 1+e−βx но при β → ∞ f (x) = tanh(αx 2 ) = 1−e−αx 1+e−αx > 0 Исламов Искандер Нейрон и простейший перцептрон
  • 10. Перцептон и алогритмы его обучения: Алгоритм обучения перцептона: 1)Присвоить синаптическим весам w1...wN некоторые начальные значения. Например, нулю. 2)Подать входной образ X и вычислить OUT. Если OUT правильный, то переходят к шагу 4. Иначе к шагу 3. 3)Применяя дельта-правило вычислить новые значения синаптических весов. 4)Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога. Исламов Искандер Нейрон и простейший перцептрон
  • 11. Перцептон и алогритмы его обучения: Алгоритм обучения перцептона: 1)Присвоить синаптическим весам w1...wN некоторые начальные значения. Например, нулю. 2)Подать входной образ X и вычислить OUT. Если OUT правильный, то переходят к шагу 4. Иначе к шагу 3. 3)Применяя дельта-правило вычислить новые значения синаптических весов. 4)Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога. Исламов Искандер Нейрон и простейший перцептрон
  • 12. Перцептон и алогритмы его обучения: Алгоритм обучения перцептона: 1)Присвоить синаптическим весам w1...wN некоторые начальные значения. Например, нулю. 2)Подать входной образ X и вычислить OUT. Если OUT правильный, то переходят к шагу 4. Иначе к шагу 3. 3)Применяя дельта-правило вычислить новые значения синаптических весов. 4)Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога. Исламов Искандер Нейрон и простейший перцептрон
  • 13. Перцептон и алогритмы его обучения: Алгоритм обучения перцептона: 1)Присвоить синаптическим весам w1...wN некоторые начальные значения. Например, нулю. 2)Подать входной образ X и вычислить OUT. Если OUT правильный, то переходят к шагу 4. Иначе к шагу 3. 3)Применяя дельта-правило вычислить новые значения синаптических весов. 4)Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога. Исламов Искандер Нейрон и простейший перцептрон
  • 14. Перцептон и алогритмы его обучения: Алгоритм обучения перцептона: 1)Присвоить синаптическим весам w1...wN некоторые начальные значения. Например, нулю. 2)Подать входной образ X и вычислить OUT. Если OUT правильный, то переходят к шагу 4. Иначе к шагу 3. 3)Применяя дельта-правило вычислить новые значения синаптических весов. 4)Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога. Исламов Искандер Нейрон и простейший перцептрон
  • 15. Перцептон и алогритмы его обучения: Таким образом логика обучения персептрона следующая: если сигнал персептрона при некотором образе верен, то ничего корректировать не надо, если нет – производится корректировка весов. Исламов Искандер Нейрон и простейший перцептрон
  • 16. Перцептон и алогритмы его обучения: Правила корректировки весов следующие: 1. Если OUT неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. 2. Если OUT неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица. Исламов Искандер Нейрон и простейший перцептрон
  • 17. Перцептон и алогритмы его обучения: Правила корректировки весов следующие: 1. Если OUT неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. 2. Если OUT неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица. Исламов Искандер Нейрон и простейший перцептрон
  • 18. Перцептон и алогритмы его обучения: Правила корректировки весов следующие: 1. Если OUT неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. 2. Если OUT неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица. Исламов Искандер Нейрон и простейший перцептрон
  • 19. Перцептон и алогритмы его обучения: Правила корректировки весов следующие: 1. Если OUT неверен и равен нулю, то необходимо увеличить веса тех входов, на которые была подана единица. 2. Если OUT неверен и равен единице, то необходимо уменьшить веса тех входов, на которые была подана единица. Исламов Искандер Нейрон и простейший перцептрон
  • 20. Дельта-правило: Дельта-правило является математической моделью правил корректировки весов. Введем величину δ, которая равна разности между требуемым T и реальным OUT выходом: δ δ = T − OUT Тогда, веса персептрона после коррекции будут равны: wN(i + 1) wN(i + 1) = wN(i) + ηδxN где: i - номер текущей итерации обучения персептрона; η - коэффициент скорости обучения, позволяет управлять средней величиной изменения весов; xN -величина входа соответствующая wN синаптическому весу. Добавление величины xN в произведение позволяет избежать изменение тех весов, которым на входе соответствовал ноль. Исламов Искандер Нейрон и простейший перцептрон
  • 21. Дельта-правило: Дельта-правило является математической моделью правил корректировки весов. Введем величину δ, которая равна разности между требуемым T и реальным OUT выходом: δ δ = T − OUT Тогда, веса персептрона после коррекции будут равны: wN(i + 1) wN(i + 1) = wN(i) + ηδxN где: i - номер текущей итерации обучения персептрона; η - коэффициент скорости обучения, позволяет управлять средней величиной изменения весов; xN -величина входа соответствующая wN синаптическому весу. Добавление величины xN в произведение позволяет избежать изменение тех весов, которым на входе соответствовал ноль. Исламов Искандер Нейрон и простейший перцептрон
  • 22. Дельта-правило: Дельта-правило является математической моделью правил корректировки весов. Введем величину δ, которая равна разности между требуемым T и реальным OUT выходом: δ δ = T − OUT Тогда, веса персептрона после коррекции будут равны: wN(i + 1) wN(i + 1) = wN(i) + ηδxN где: i - номер текущей итерации обучения персептрона; η - коэффициент скорости обучения, позволяет управлять средней величиной изменения весов; xN -величина входа соответствующая wN синаптическому весу. Добавление величины xN в произведение позволяет избежать изменение тех весов, которым на входе соответствовал ноль. Исламов Искандер Нейрон и простейший перцептрон
  • 23. Дельта-правило: Дельта-правило является математической моделью правил корректировки весов. Введем величину δ, которая равна разности между требуемым T и реальным OUT выходом: δ δ = T − OUT Тогда, веса персептрона после коррекции будут равны: wN(i + 1) wN(i + 1) = wN(i) + ηδxN где: i - номер текущей итерации обучения персептрона; η - коэффициент скорости обучения, позволяет управлять средней величиной изменения весов; xN -величина входа соответствующая wN синаптическому весу. Добавление величины xN в произведение позволяет избежать изменение тех весов, которым на входе соответствовал ноль. Исламов Искандер Нейрон и простейший перцептрон
  • 24. Обучение: w1u1+w2u2−v = 0 - граница Задача неронной сети в общем случае заключается в разнесении вектора входных сигналов на 2 класса L1 и L2. Если выходной сигнал принимает значение 1, то он относит его к "классу"L1, если-0, то к "классу"L2. Исламов Искандер Нейрон и простейший перцептрон