SlideShare a Scribd company logo
Основи нейромережевих
технологій
Лекція 2
Література
1. http://masters.donntu.edu.ua/2003/fvti/paukov/library/neurow.htm
2. http://victoria.lviv.ua/html/oio/
3. Уоссермен Ф. Нейрокомпьютерна техніка. - М.: Світ, 1992
4. Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теорія и  
практика. – М.: Телеком, 2001. – 382 с.
5. Мак-Каллок У. С., Питтс В. Логическое исчисление идей, относящихся к 
нервной активности - М.: Изд-во иностр. лит., 1956.
6. http://www.neuroproject.ru/forecasting_tutorial.php#mlp6. http://www.neuroproject.ru/forecasting_tutorial.php#mlp
7. Нейронные сети.  Саймон Хайкин. – М.: Вильямс, 2006. – 1103 с.
Історія розвитку штучних нейронних мереж
• 1943 рік — Норберт Вінер разом з співробітниками публікує роботу про
кібернетику. Основною ідеєю є представлення складних біологічних
процесів математичними моделями.
• 1943 рік — Маккалок та Піттс формалізують поняття нейронної мережі у
статті про логічне числення ідей і нервової активності.
• 1949 рік — Хебб пропонує перший алгоритм навчання.
• У 1958 році Розенблаттом винайдений перцептрон. Перцептрон набуває
популярності — його використовують для розпізнавання образів,
прогнозування погоди і т. д.прогнозування погоди і т. д.
• У 1960 році Уідроу спільно зі своїм студентом Хоффом на основі дельта-
правила розробили ADALINE (адаптивний суматор), який відразу почав
використовуватися для завдань пророцтва і адаптивного управління. Зараз
ADALINE є стандартним елементом багатьох систем обробки сигналів.
• У 1961 році під керівництвом Бонгарда розроблена
програма «Кора» : «.завдання Кори — пошук розділяючого
правила після того, як знайдені оператори, що дають досить
чіткі характеристики об'єкту або його частин».
William McCulloch
4
Історія розвитку штучних нейронних мереж
• У 1969 році Мінський публікує формальний доказ обмеженості перцептрона
і показує, що він нездатний вирішувати деякі завдання, пов'язані з
інваріантністю представлень. Інтерес до нейронних мереж різко спадає.
• 1974 рік — Пол Дж. Вербос, і А. І. Галушкін одночасно винаходять алгоритм
зворотного поширення помилки для навчання багатошарових перцептронів.
• 1975 рік — Фукушима представляє Когнитрон — мережу, що
самоорганізовується, призначену для інваріантного розпізнавання
образів, але це досягається тільки за допомогою запам'ятовування практично
усіх станів образу.
• 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками• 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками
може бути системою, що мінімізує енергію (так звана мережа Хопфілда).
Кохоненом представлені моделі мережі, що навчається без учителя
(нейронна мережа Кохонена).
• 1986 рік —Румельхартом, Хінтоном і Вільямсом та
незалежно і одночасно Барцевим та Охониним
перевідкритий та істотно розвинений метод зворотного
поширення помилки. Почався вибух інтересу до навчаних
нейронних мереж.
Основи нейромережевих технологій
1. Нейронні мережі: базові поняття
2. Архітектура нейронної мережі
3. Навчання нейронної мережі
1. Нейронні мережі: базові поняття
Усі живі істоти складаються з клітин.
Будівельними блоками нервової тканини є
нервові клітини — нейрони, що складаються з:
–тіла клітини
–дендритів (входи)
–аксона (вихід)
Біологічний
нейрон
 
Нейрон (нервова клітка) складається з 
тіла клітини –соми (soma, cell body), і 
двох типів зовнішніх деревоподібних 
відгалужень: аксона (axon) і дендритів 
(dendrites). 
Тіло клітини вміщує ядро (nucleus), що 
містить інформацію про властивості 
нейрона, і плазму, яка продукує необхідні 
для нейрона матеріали. для нейрона матеріали. 
Нейрон отримує сигнали (імпульси) від 
інших нейронів через дендрити 
(приймачі) і передає сигнали, згенеровані 
тілом клітки, вздовж аксона 
(передавач), що наприкінці 
розгалужується на волокна (strands). 
На закінченнях волокон знаходяться 
синапси (synapses). Схема біологічного нейрона
Як відбувається робота мозку?
• Мозок складається з нейронів, які з’єднуються один з одним в
єдину велику мережу.
• Коли нейрон подразнюється, він передає своїм сусідам електричні
сигнали певного виду. Ті обробляють сигнали і передають далі.
• Ланцюжок нейронів, які можуть встигнути отримати подразнення
перед ухваленням рішення, не може бути довше за декілька
сотень.сотень.
Мозок досягає складності та ефективності
не за рахунок величезної кількістю
послідовних обчислень, як сучасні
комп’ютери, а вдалими зв’язками між
нейронами, які дозволяють для
вирішення кожного конкретного завдання
задіювати ланцюжки невеликої глибини.
Означення нейронної мережі
Штучні нейронні мережі (ШНМ) – це математичні 
моделі, а також їх програмні або апаратні реалізації, 
побудовані за принципом організації й 
функціонування біологічних нейронних мереж –
мереж нервових кліток живого організму. 
• Нейронні мережі не • Нейронні мережі не 
програмуються у звичному змісті 
цього слова, вони навчаються. 
• Можливість навчання – одне з 
головних переваг нейронних 
мереж перед традиційними 
алгоритмами. 
Структура
штучного
нейрона
• Нейрон є складовою частиною 
нейронної мережі. Він складається з 
елементів трьох типів: помножувачів 
(синапсів), суматора і нелінійного 
перетворювача. 
• Синапси здійснюють зв’язок між 
нейронами, множать вхідний сигнал на 
число, що характеризує силу зв’язку, (вагу 
синапса). 
bxwS
n
i
ii  1
 .
W1 … Wi … Wn
x1
11
синапса). 
• Суматор виконує додавання 
сигналів, що надходять по синаптичним 
зв’язках від інших нейронів і зовнішніх 
вхідних сигналів. 
• Нелінійний перетворювач реалізує 
нелінійну функцію одного аргументу –
виходу суматора. Ця функція називається 
функцією активації чи передатною 
функцією нейрона.
)(sfy 



.
.
.
.
.
.
.
.
.
s y
f
b
x1
xn
xi
.
.
.
Структура штучного нейрона
Математична модель штучного нейрона:
Математична інтерпретація дії нейрона
Стан нейрона:
Отриманий сумарний імпульс (вхід)
Вихідний сигнал нейрона:Вихідний сигнал нейрона:
Функція f називається активаційною і є, як правило,
сигмоїдною:
Результат!
Сила вихідного сигналу:
Нейрон повністю описується своїми вагами та активаційною
функцією
Отримавши на вході набір чисел – параметри (вектор) – нейрон в
залежності від своїх ваг на виході дасть деяке число
Сумуючий блок, який відповідає тілу біологічного нейрона, складає
зважені входи алгебраїчно, створюючи вихід, який ми називатимемо
NET.
Активізаційні
функції
Сигнал NET далі, як правило, перетворюється активаційною функцією F і дає
вихідний нейронний сигнал OUT = F(NET). Активаційна функція F(NET)
може бути:
Віаs-нейрон
Нейрон – пороговий елемент
Зазвичай
коефіцієнтів (які зазвичай налаштовуються); — активаційна
функція (нелінійна порогова).
де S j — постсинаптичний потенціал; bj — порогове значення
(вагові коефіцієнти зв'язків з Bias-нейроном); Wj — вектор вагових
f
y j  f (x,Wj)
) (     ( )
j
T T
j j j j j
S
y f W x y W x b  

Bias-нейрон — фіктивний нейрон, пов'язаний з усіма нейронами
мережі (крім вхідних), вихід якого дорівнює 1. Можливі два види
порогових функцій.
— асиметрична,
— симетрична.
Щоб забезпечити можливість використання градієнтних методів
оптимізації для налаштовання вагових коефіцієнтів застосовують
гладку активаційну функцію. Найчастіше використовуються наступні
активаційні функції:
0, x  0
1, x  0
f (x)  

1, x  0
1, x  0
f (x)  
Нейронна мережа
Особливості:
• Нейронна мережа – спрощена модель біологічного аналогу.
• Демонструє властивості, що характерні людському мозку, – це
вирішення задач на основі досвіду, узагальнення, отримання
істотних даних з надлишкової інформації.
• Як правило, активаційні функції всіх нейронів в нейронній• Як правило, активаційні функції всіх нейронів в нейронній
мережі фіксовані, а ваги є параметрами нейронної мережі і
можуть змінюватися.
• Робота нейронної мережі полягає в перетворенні вхідного
вектора у вихідний вектор, причому це перетворення задається
вагами нейронної мережі.
2. Архітектура нейронної мережі
• Більшість нейронних мереж 
містять як мінімум три нормальних 
типи прошарків – вхідний, 
прихований та вихідний. 
• Прошарок вхідних нейронів 
отримує дані або з вхідних файлів, 
або безпосередньо з електронних 
Діаграма простої нейронної мережі
або безпосередньо з електронних 
давачів.  
• Вихідний прошарок пересилає інформацію безпосередньо до 
зовнішнього середовища. 
•Входи та виходи кожного з прихованих нейронів просто йдуть до 
інших нейронів.
Штучна нейронна мережа
 ШНМ — багатошарова нейромережева архітектура одного з трьох видів:
– без зворотних зв'язків (feed-forward),
– з зворотними зв'язками
– з латеральним гальмуванням.
Режими функціонування мережі
НМ функціонують у наступних режимах:
– навчання — налагодження всіх коефіцієнтів;
– тестування — перевірка працездатності мережі на
незалежній вибірці;
– прогін — використання мережі на невідомих даних.
Існує два режими навчання:Існує два режими навчання:
– з учителем — на вхід мережі подаються вхідні
образи, на вихід — цільовий вихід. Вагові коефіцієнти
налаштовуються на основі помилки між реальним і
бажаним виходом.
– без учителя — на вихід дані не подаються. Мережа сама
формує взаємозв'язки між однотипними вхідними даними
(кластеризація).
Приклад використання нейромережі
Задача розпізнавання рукописних літер.
Дано:
растрове чорно-біле зображення розміром 30*30 пікселів.
Потрібно:
визначити, яка це літера (в алфавіті 33 літери).
Інтерпретація задачі для нейронної мережі.
Дано:Дано:
дано вхідний вектор із 900 двійкових символів (30*30=900).
Потрібно:
потрібно побудувати нейронну мережу із 900 входами та 33 виходами,
які помічені літерами.
Якщо на вході нейронної мережі зображення літери «А», то
максимальне значення вихідного сигналу досягається на виході «А».
Аналогічно нейронна мережа працює для всіх 33 літер.
Як побудувати нейромережу?
1. Вибір типу (архітектури) нейронної мережі.
 які нейрони ми хочемо використовувати (кількість
входів, активаційні функції);
 яким чином слід з’єднати їх між собою;
 що взяти за входи і виходи нейронної мережі.
Підбір ваг (навчання) нейронної мережі.2. Підбір ваг (навчання) нейронної мережі.
Приклади архітектур нейромережі:
Перцептрон Розенблата.
Багатошаровий перцептрон.
Мережа Джордана.
Мережа Елмана.
Мережа Хемінга.
x1
W
Мережа Хемінга.
Мережа Кохонена
...
x2
xn
. . .
S-елементи A-елементи R-елементи
Навчання штучної нейронної мережі
Існують три загальні парадигми навчання:
• "з вчителем“ - нейромережа має у своєму 
розпорядженні правильні відповіді (виходи 
мережі) на кожен вхідний приклад. 
• "без вчителя" (самонавчання) - не вимагає • "без вчителя" (самонавчання) - не вимагає 
знання правильних відповідей на кожен 
приклад навчальної вибірки. 
• змішана - частина ваг визначається за 
допомогою навчання зі вчителем, у той час 
як інша визначається за допомогою 
самонавчання.
Навчання нейромережі
• Основна ідея: корекція коефіцієнтів у
випадку, якщо після пред’явлення чергового
навчального вектора фактичний вихід не
збігається з бажаним. Така корекція може
здійснюватися після кожного пред’явлення
чергового вектора.
Навчання штучної нейронної мережі
Правила навчання нейромережі:
• Правило Хеба.Правило Хеба. Wij(k)=r xj (k) yi (k), r - коефіцієнт швидкості навчання. 
• Правило ХопфілдаПравило Хопфілда. Якщо одночасно вихідний та вхідний сигнал нейрона є 
активними або неактивними, збільшуємо вагу з'єднання оцінкою навчання, 
інакше зменшуємо вагу оцінкою навчання.
• Правило "дельта".Правило "дельта". Wij= xj (di - yi).• Правило "дельта".Правило "дельта". Wij= xj (di - yi).
• Правило градієнтного спуску.Правило градієнтного спуску. До кінцевого коефіцієнта зміни, що діє на 
вагу, додається пропорційна константа, яка пов'язана з оцінкою навчання. 
•• Навчання методом змагання.Навчання методом змагання. Wij (k+1)= Wij(k)+r [xjWij (k+1)= Wij(k)+r [xj -- Wij(k)].Wij(k)].
• правило Уїдроу-Хопфа Інша назва - -правило.
• Для нейрона з лінійною функцією активації (ADALINE).
wj:= wj + α(d-y)xj ,
θ:= θ -α(d-y)
Особливості нейромереж:
Конекціонізм – глобальність зв’язків нейронів та їх
нелінійна дія.
Локальність і паралелелізм – кожен нейрон реагує лише
на локальну інформацію, що поступає до нього в даний
момент від пов’язаних з ним таких же нейронів, без
звертання до загального стану обчислень.звертання до загального стану обчислень.
Навчання – кожен нейрон змінює
синапсичні ваги локально, в
залежності від інформації, яка до
нього надійшла.
Чорний ящик – нездатність
нейромережі пояснити результат.
Він є і все!
Модель перcептрона
Найпростіша мережа, що складається з одного нейрона, називається
персептроном. Модель персептрона має вигляд, показаний на рис.
1
х yy  R, y  {1, 1}
При цьому
x  R d , або x  {1, 1 }d
,
або .
Розглянемо
випадок
x  R d , y  {  1 , 1 }
Функціонування персептрона описується залежністю:
27
dде – деякий поріг.
y  sign (W T
x  )   ( x,W ) (1)
Ця модель персептрона — лінійного порогового елемента (LTU — linear threshold
unit) — перша модель нейронної мережі. Вона була запропонована Розенблаттом
(Frank Rosenblatt) (рис.).
H 
{x : W T
x  }
H  {x : W Tx }
{x : y 1} 
{x : y  1} 
(2)
з розділяючою гіперплощиною (афінний підпростір розмірності d 1 ): H  {x : W T
x    0}
(3)
У геометричній інтерпретації рівняння (1) визнач,ає 2 підпростори
Модель перcептрона
28
Максимальний розмір навчальної
множини
Розмір навчальної множини не повинен перевищувати
N 
 2(d 1)  2d,
тобто кожний ваговий коефіцієнт (зв'язок) здатен "запам'ятати"
приблизно 2 вхідні образи.
29
приблизно 2 вхідні образи.
Методи лінійного програмування для розв’язання нерівності (5)
(симплекс-метод) забезпечують пакетну обробку, що не відображає
процес навчання.
Для навчання необхідний інтерак - тивний або on-line
алгоритм, що корегує вагові коефіцієнти після пред'явлення мережі
кожного образа.
Алгоритм навчання персептрона Розенблатта
30
, але
найчастіше вибирають
,
для нормування множини
тори мали одиничну довжину.
1. У базовому алгоритмі навчання персептрона k 1
k
zij
~
1
 
F таким чином, щоб усі його век -
~
Операції 4 обумовлені пошуком розв’язку W у формі
~
,   0 .~z
~
W  
Алгоритм навчання персептрона Розенблатта
31
Крім того
.
негативного значення на наступному кроці було отримане
додатне (п. 4 виконується тільки у випадку негативного
добутку).
,   0 .j
j
j ij
~zW  
zijj zij
Wj zij
~ 2
~ ~wj1Wj1 zij
~~ ~  ~
ЗначенняW j — збільшується, щоб після поточного
~
Обмеженість простих персептронів
 Ряд експериментів, в першу чергу - з розпізнавання.
 Аналіз Мінського і Пейперта: системи, подібні до
персептронів, в принципі не можуть розв’язувати ряд
задач.
 По суті - алгоритми навчання таких систем
еквівалентні знаходженню лінійної розділяючої
функції.функції.
 Тобто - якщо є лінійне розділення, то алгоритм знайде
коефіцієнти лінійної розділяючої функції. Якщо ні - то
ні.
 Класичний приклад: задача XOR.
Багатошарові нейронні мережі
 Багатошарові (1986 р.) мережі володіють значно більшими
можливостями, ніж одношарові. Проте багатошарові мережі можуть
привести до збільшення обчислювальної потужності в порівнянні з
одношаровими лише в тому випадку, якщо активаційна функція між
шарами буде нелінійною.
Багатошарові нейронні мережі: загальний опис
• Вхідний шар сприймає вхідні дані та розподіляє їх до
наступного шару.
• Вихідний шар видає результати.
• Між ними - проміжні, або сховані шари.
• Вихід кожного нейрону попереднього шару з’єднаний з
входами усіх нейронів наступного шару; wik - зв’язок між
i-м нейроном попереднього шару та k-м нейроном
наступного.наступного.
• Ключова ідея: багатошарові нейронні мережі можуть
здійснювати нелінійне розділення.
• Класичний метод - метод зворотного розповсюдження
помилок (back propagation).
• Активаційна функція не повинна бути лінійною. Часто
використовуються, зокрема, сигмоїдні активаційні
функції.
Багатошарові нейронні мережі прямого
розповсюдження
 Мережа прямого поширення являє собою
багатошарову нейронну мережу без зворотних
зв'язків, у якій вихід кожного нейрона шару з'єднаний
із входами всіх нейронів наступного шару, а для
перетворення сигналу вхідного збудження
(постсинаптичного потенціалу) кожного нейрона
прихованого і вихідного шару у вихідний сигналприхованого і вихідного шару у вихідний сигнал
використовується нелінійна активаційна функція.
 Поріг спрацьовування кожного нейрона реалізується
за допомогою використання так званого Bias- нейрона,
вихід якого завжди має значення 1, а ваговий
коефіцієнт зв'язку цього нейрона з іншими нейронами
мережі налаштовується в процесі навчання (рис.).
35
MLP (Multilayer Perceptron) -
багатошарова нейронна мережа без зворотних
зв'язків
36
Вхідні і вихідні дані
Розмірність вхідного шару мережі прямого
поширення (рис.) відповідає розмірності вектора
вхідних даних задачі.
Розмірність вихідного шару визначається
специфікою конкретної задачі.
Вектор, що містить пару векторів (вхідний і цільовий
вектори), називається також образом або
37
вектори), називається також образом або
елементом навчальної вибірки (навчальної
множини).
Множина образів складає епоху — послідовність
образів довільної розмірності, що включає в себе
образи всіх можливих типів (класів).
Кожен вхідний вектор перетворюється мережею у вихідний вектор, розмірність
якого визначається типом задачі (класифікація або інтерполяція) і збігається з
розмірністю вихідного шару мережі.
Режими роботи
Мережі прямого поширення можуть
функціонувати в трьох режимах:
Навчання — настроювання вагових
коефіцієнтів.
38
Тестування — перевірки ефективності
навчання на незалежних даних.
Прогін — формування вихідних даних
на основі перетворення мережею вхідної
інформації при налаштованих вагових
коефіцієнтах зв'язків між шарами.
Приклад – задача класифікації земного
покриву за супутниковими даними
Дано – супутникові знімки різних апаратів (різна
кількість каналів) різного розрізнення (Часового та
просторового)
Завдання – побудувати “Маску” сільгоспкультур
39
Завдання – побудувати “Маску” сільгоспкультур
Розв’язання задачі:
1.Сформувати навчальну та тестову (незалежну) вибірку
2.Навчити класифікатор
3.Перевірити точність на незалежних тестових даних
5. Використовувати в операційному режимі
Супутникові дані: RapidEye (5 м)
40
LISS-III (30 м)
41
Картографування природного рослинного
покриву (ceреднє розрізнення)
Дані
 Landsat-7/ETM+
Розрізнення
 30 м
Точність
класифікації
до 88.93% до 88.93%
Режим прогону
43
Режим навчання з вчителем
44
Метод зворотного поширення похибки
45
Оптимізація вагових коефіцієнтів за
методом градієнтного спуску
46
Варіанти методу зворотнього поширення
похибки
 Існує два основних варіанти методу
зворотного поширення похибки:
• on-line (некумулятивний)
• off-line (кумулятивний)
47
Похідна для кожного образу
г р а д і є н т
Варіанти методу зворотнього поширення
похибки
48
Кумулятивний та некумулятивний метод
навчання мережі
а) кумулятивний метод близький до реального 
градієнтного спуску
49
б) некумулятивне навчання вносить елемент випадковості
Процес зміни вагових коефіцієнтів при кумулятивному та
некумулятивному способі навчання
Сигнал похибки
50
Обчислення сигналу похибки
51
Обчислення похідних
Повертаючись до
з врахуванням та
Wij
SkE
Wij
Ep
 
N0
k1 Sk
i
 y
S
52
з врахуванням та
маємо
i
 y j
Wi j
S
ij
 i  y j .
W
E p
iki
i
yk
S y S

E E
 p
 p
Алгоритм зворотного поширення похибки
1. На вхід мережі подається вхідний вектор з навчальної
вибірки.
2. Виконується прогін мережі (прямий прохід), і
обчислюється реальний вихід, що відповідає даному входу
(відповідно до приведених вище формул).
3. Отриманий вихід порівнюється з цільовим виходом для
даного вхідного вектора й обчислюється похибка на
53
даного вхідного вектора й обчислюється похибка на
виході мережі.
4. Обчислюється похідна функції помилки по кожному з
вагових коефіцієнтів мережі.
5. Вагові коефіцієнти налаштовуються таким чином, щоб
мінімізувати похибку на виході мережі.
6. Здійснюється перехід до п. 1. Процедура повторюється
доти, доки похибка не потрапить у припустимі межі або
доки не буде досягнуто задане число ітерацій.
And Finally….
“If the brain were so simple
that we could understand itthat we could understand it
then we’d be so simple that
we couldn’t”

More Related Content

What's hot

Проект "Карнавальна маска"
Проект "Карнавальна маска"Проект "Карнавальна маска"
Проект "Карнавальна маска"
Andy Levkovich
 
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
VsimPPT
 
інструкція з налаштування тестування за допомогою локальної мережі Mytest x
інструкція з налаштування тестування за допомогою локальної мережі Mytest xінструкція з налаштування тестування за допомогою локальної мережі Mytest x
інструкція з налаштування тестування за допомогою локальної мережі Mytest x
defolt1998
 
Алкани,алкени ,алкіни
Алкани,алкени ,алкіниАлкани,алкени ,алкіни
Алкани,алкени ,алкіни
ssuser90b404
 
Пошук максимального елемента в масиві
Пошук максимального елемента в масивіПошук максимального елемента в масиві
Пошук максимального елемента в масивіЗоя Муляр
 
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
PRESLAVA1972
 
Уроки хімії "Найважливіші органічні сполуки"
Уроки хімії "Найважливіші органічні сполуки"Уроки хімії "Найважливіші органічні сполуки"
Уроки хімії "Найважливіші органічні сполуки"
sveta7940
 
Найвідоміші винаходи Томаса Едісона
Найвідоміші винаходи Томаса ЕдісонаНайвідоміші винаходи Томаса Едісона
Найвідоміші винаходи Томаса Едісона
NTB VNTU
 
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...Лидия Рудакова
 
прес конференція
прес конференціяпрес конференція
прес конференція
MariiaFurnik
 
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
ssusere1ecc1
 
Поляризація.pptx
Поляризація.pptxПоляризація.pptx
Поляризація.pptx
ssuserbdfe7a
 
мяка іграшка презентація
мяка іграшка презентаціямяка іграшка презентація
мяка іграшка презентація
Светлана Кравцова
 
кирило мефодіївське братство
кирило мефодіївське братствокирило мефодіївське братство
кирило мефодіївське братствоИрина Куликова
 
1.1 Повідомлення, інформація, шум
1.1 Повідомлення, інформація, шум1.1 Повідомлення, інформація, шум
1.1 Повідомлення, інформація, шум
fukoksana
 
Великий адронний колайдер - шлях до вивчення будови Всесвіту
Великий адронний колайдер - шлях до вивчення будови ВсесвітуВеликий адронний колайдер - шлях до вивчення будови Всесвіту
Великий адронний колайдер - шлях до вивчення будови Всесвіту
Ukrainian Nuclear Society
 
природні ресурси світу
природні ресурси світуприродні ресурси світу
природні ресурси світу
vyglinska
 
Головний мозок.Будова і функції.
Головний мозок.Будова і функції.Головний мозок.Будова і функції.
Головний мозок.Будова і функції.
labinskiir-33
 
Історія виникнення креслення
Історія виникнення кресленняІсторія виникнення креслення
Історія виникнення креслення
antonuk
 
8 клас урок 4
8 клас урок 48 клас урок 4
8 клас урок 4
Александр Карпук
 

What's hot (20)

Проект "Карнавальна маска"
Проект "Карнавальна маска"Проект "Карнавальна маска"
Проект "Карнавальна маска"
 
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
Урок 14 для 6 класу - Об'єкти презентації та засоби керування її демонстраціє...
 
інструкція з налаштування тестування за допомогою локальної мережі Mytest x
інструкція з налаштування тестування за допомогою локальної мережі Mytest xінструкція з налаштування тестування за допомогою локальної мережі Mytest x
інструкція з налаштування тестування за допомогою локальної мережі Mytest x
 
Алкани,алкени ,алкіни
Алкани,алкени ,алкіниАлкани,алкени ,алкіни
Алкани,алкени ,алкіни
 
Пошук максимального елемента в масиві
Пошук максимального елемента в масивіПошук максимального елемента в масиві
Пошук максимального елемента в масиві
 
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
Технологія виготовлення виробів інтер’єрного призначення 8 клас(урок 12)
 
Уроки хімії "Найважливіші органічні сполуки"
Уроки хімії "Найважливіші органічні сполуки"Уроки хімії "Найважливіші органічні сполуки"
Уроки хімії "Найважливіші органічні сполуки"
 
Найвідоміші винаходи Томаса Едісона
Найвідоміші винаходи Томаса ЕдісонаНайвідоміші винаходи Томаса Едісона
Найвідоміші винаходи Томаса Едісона
 
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...
Проектна робота. Плетіння гачком. Підготувала Учениця 7 класу Ханецька Дана П...
 
прес конференція
прес конференціяпрес конференція
прес конференція
 
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
Урок № 12 Конструкційні матеріали та їх властивості. Доці­льність вибору конс...
 
Поляризація.pptx
Поляризація.pptxПоляризація.pptx
Поляризація.pptx
 
мяка іграшка презентація
мяка іграшка презентаціямяка іграшка презентація
мяка іграшка презентація
 
кирило мефодіївське братство
кирило мефодіївське братствокирило мефодіївське братство
кирило мефодіївське братство
 
1.1 Повідомлення, інформація, шум
1.1 Повідомлення, інформація, шум1.1 Повідомлення, інформація, шум
1.1 Повідомлення, інформація, шум
 
Великий адронний колайдер - шлях до вивчення будови Всесвіту
Великий адронний колайдер - шлях до вивчення будови ВсесвітуВеликий адронний колайдер - шлях до вивчення будови Всесвіту
Великий адронний колайдер - шлях до вивчення будови Всесвіту
 
природні ресурси світу
природні ресурси світуприродні ресурси світу
природні ресурси світу
 
Головний мозок.Будова і функції.
Головний мозок.Будова і функції.Головний мозок.Будова і функції.
Головний мозок.Будова і функції.
 
Історія виникнення креслення
Історія виникнення кресленняІсторія виникнення креслення
Історія виникнення креслення
 
8 клас урок 4
8 клас урок 48 клас урок 4
8 клас урок 4
 

Viewers also liked

Lect 1 intro
Lect 1 introLect 1 intro
Lect 1 intro
Halyna Melnyk
 
Lect 3 4 prolog
Lect 3 4 prologLect 3 4 prolog
Lect 3 4 prolog
Halyna Melnyk
 
Lect аі 2 n net p2
Lect аі 2 n net p2Lect аі 2 n net p2
Lect аі 2 n net p2
Halyna Melnyk
 
Lect ai 3 ga
Lect ai 3  gaLect ai 3  ga
Lect ai 3 ga
Halyna Melnyk
 
Lect 5 prolog
Lect 5 prologLect 5 prolog
Lect 5 prolog
Halyna Melnyk
 
Lect 6 prolog
Lect 6 prologLect 6 prolog
Lect 6 prolog
Halyna Melnyk
 
Lect 2 prolog
Lect 2 prologLect 2 prolog
Lect 2 prolog
Halyna Melnyk
 
Sql db
Sql dbSql db
Введение в язык программирования Питон (Python)
Введение в язык программирования Питон (Python)Введение в язык программирования Питон (Python)
Введение в язык программирования Питон (Python)
Александр Дьяконов
 
Pandas: обзор основных функций
Pandas: обзор основных функцийPandas: обзор основных функций
Pandas: обзор основных функций
Александр Дьяконов
 

Viewers also liked (10)

Lect 1 intro
Lect 1 introLect 1 intro
Lect 1 intro
 
Lect 3 4 prolog
Lect 3 4 prologLect 3 4 prolog
Lect 3 4 prolog
 
Lect аі 2 n net p2
Lect аі 2 n net p2Lect аі 2 n net p2
Lect аі 2 n net p2
 
Lect ai 3 ga
Lect ai 3  gaLect ai 3  ga
Lect ai 3 ga
 
Lect 5 prolog
Lect 5 prologLect 5 prolog
Lect 5 prolog
 
Lect 6 prolog
Lect 6 prologLect 6 prolog
Lect 6 prolog
 
Lect 2 prolog
Lect 2 prologLect 2 prolog
Lect 2 prolog
 
Sql db
Sql dbSql db
Sql db
 
Введение в язык программирования Питон (Python)
Введение в язык программирования Питон (Python)Введение в язык программирования Питон (Python)
Введение в язык программирования Питон (Python)
 
Pandas: обзор основных функций
Pandas: обзор основных функцийPandas: обзор основных функций
Pandas: обзор основных функций
 

More from Halyna Melnyk

Sql global
Sql globalSql global
Sql global
Halyna Melnyk
 
Sql pl
Sql plSql pl
Sql granting
Sql grantingSql granting
Sql granting
Halyna Melnyk
 
Sql view
Sql viewSql view
Sql view
Halyna Melnyk
 
Sql select 3
Sql select 3Sql select 3
Sql select 3
Halyna Melnyk
 
Sql select 2
Sql select 2Sql select 2
Sql select 2
Halyna Melnyk
 
Sql select 1
Sql select 1Sql select 1
Sql select 1
Halyna Melnyk
 
Sql dml
Sql dmlSql dml
Sql dml
Halyna Melnyk
 
Sql ddl
Sql ddlSql ddl
Sql ddl
Halyna Melnyk
 

More from Halyna Melnyk (9)

Sql global
Sql globalSql global
Sql global
 
Sql pl
Sql plSql pl
Sql pl
 
Sql granting
Sql grantingSql granting
Sql granting
 
Sql view
Sql viewSql view
Sql view
 
Sql select 3
Sql select 3Sql select 3
Sql select 3
 
Sql select 2
Sql select 2Sql select 2
Sql select 2
 
Sql select 1
Sql select 1Sql select 1
Sql select 1
 
Sql dml
Sql dmlSql dml
Sql dml
 
Sql ddl
Sql ddlSql ddl
Sql ddl
 

Recently uploaded

звіт 2023-2024 32024 32024 32024 32024 3.pptx
звіт 2023-2024 32024 32024 32024 32024 3.pptxзвіт 2023-2024 32024 32024 32024 32024 3.pptx
звіт 2023-2024 32024 32024 32024 32024 3.pptx
home
 
педрада 2024 травень 2педрада 2024 травень .pptx
педрада 2024 травень 2педрада 2024 травень .pptxпедрада 2024 травень 2педрада 2024 травень .pptx
педрада 2024 травень 2педрада 2024 травень .pptx
home
 
Звіт за результатами самооцінювання щодо освітнього середовища
Звіт за результатами самооцінювання щодо освітнього середовищаЗвіт за результатами самооцінювання щодо освітнього середовища
Звіт за результатами самооцінювання щодо освітнього середовища
ssuserce4e97
 
zarahuvannia do pershogo klassu IMG_20240607_0001.pdf
zarahuvannia do pershogo klassu IMG_20240607_0001.pdfzarahuvannia do pershogo klassu IMG_20240607_0001.pdf
zarahuvannia do pershogo klassu IMG_20240607_0001.pdf
AleksSaf
 
Передвиборча програма Ковальової Катерини
Передвиборча програма Ковальової КатериниПередвиборча програма Ковальової Катерини
Передвиборча програма Ковальової Катерини
tetiana1958
 
Звіт керівника закладу за 2023-2024.pptx
Звіт керівника закладу за 2023-2024.pptxЗвіт керівника закладу за 2023-2024.pptx
Звіт керівника закладу за 2023-2024.pptx
ssuserd0ab23
 
Р.Л.Стівенсон "Вересовий трунок". Презентація
Р.Л.Стівенсон "Вересовий трунок". ПрезентаціяР.Л.Стівенсон "Вересовий трунок". Презентація
Р.Л.Стівенсон "Вересовий трунок". Презентація
Adriana Himinets
 
Безбар’єрність в бібліотеці – суспільна норма
Безбар’єрність в бібліотеці – суспільна нормаБезбар’єрність в бібліотеці – суспільна норма
Безбар’єрність в бібліотеці – суспільна норма
ssuser15a891
 
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
tetiana1958
 
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
Чернівецька обласна бібліотека для дітей
 
Майстер графічного малюнку. Георгій Якутовича
Майстер графічного малюнку. Георгій ЯкутовичаМайстер графічного малюнку. Георгій Якутовича
Майстер графічного малюнку. Георгій Якутовича
НБУ для дітей
 
Зернобобові культури в Україні: сучасний стан та перспективи використання
Зернобобові культури в Україні: сучасний стан та перспективи використанняЗернобобові культури в Україні: сучасний стан та перспективи використання
Зернобобові культури в Україні: сучасний стан та перспективи використання
Vinnytsia Regional Universal Scientific Library named after Valentin Otamanovsky
 
Звіт директора за 2023-2024 н. р. [Автозбережено].ppt
Звіт директора  за 2023-2024 н. р. [Автозбережено].pptЗвіт директора  за 2023-2024 н. р. [Автозбережено].ppt
Звіт директора за 2023-2024 н. р. [Автозбережено].ppt
ssuser59c0a2
 
Звіт в.о. директора Лохвицької гімназії.pptx
Звіт в.о. директора Лохвицької гімназії.pptxЗвіт в.о. директора Лохвицької гімназії.pptx
Звіт в.о. директора Лохвицької гімназії.pptx
ssuserd8e4941
 
Передвиборча програма Майора Станіслава
Передвиборча програма  Майора СтаніславаПередвиборча програма  Майора Станіслава
Передвиборча програма Майора Станіслава
tetiana1958
 
№ 133, 04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
№ 133,  04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...№ 133,  04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
№ 133, 04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
olha1koval
 
курсова робота теорема Штольца з математики
курсова робота теорема Штольца з математикикурсова робота теорема Штольца з математики
курсова робота теорема Штольца з математики
ssuser3a363c
 
Постанова №648 уряду від 04 червня 2024 року. .pdf
Постанова №648 уряду від 04 червня 2024 року. .pdfПостанова №648 уряду від 04 червня 2024 року. .pdf
Постанова №648 уряду від 04 червня 2024 року. .pdf
24tvua
 
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
ssuser46127c
 
Проєкт "Подорож містами України". Буковина
Проєкт "Подорож містами України". БуковинаПроєкт "Подорож містами України". Буковина
Проєкт "Подорож містами України". Буковина
НБУ для дітей
 

Recently uploaded (20)

звіт 2023-2024 32024 32024 32024 32024 3.pptx
звіт 2023-2024 32024 32024 32024 32024 3.pptxзвіт 2023-2024 32024 32024 32024 32024 3.pptx
звіт 2023-2024 32024 32024 32024 32024 3.pptx
 
педрада 2024 травень 2педрада 2024 травень .pptx
педрада 2024 травень 2педрада 2024 травень .pptxпедрада 2024 травень 2педрада 2024 травень .pptx
педрада 2024 травень 2педрада 2024 травень .pptx
 
Звіт за результатами самооцінювання щодо освітнього середовища
Звіт за результатами самооцінювання щодо освітнього середовищаЗвіт за результатами самооцінювання щодо освітнього середовища
Звіт за результатами самооцінювання щодо освітнього середовища
 
zarahuvannia do pershogo klassu IMG_20240607_0001.pdf
zarahuvannia do pershogo klassu IMG_20240607_0001.pdfzarahuvannia do pershogo klassu IMG_20240607_0001.pdf
zarahuvannia do pershogo klassu IMG_20240607_0001.pdf
 
Передвиборча програма Ковальової Катерини
Передвиборча програма Ковальової КатериниПередвиборча програма Ковальової Катерини
Передвиборча програма Ковальової Катерини
 
Звіт керівника закладу за 2023-2024.pptx
Звіт керівника закладу за 2023-2024.pptxЗвіт керівника закладу за 2023-2024.pptx
Звіт керівника закладу за 2023-2024.pptx
 
Р.Л.Стівенсон "Вересовий трунок". Презентація
Р.Л.Стівенсон "Вересовий трунок". ПрезентаціяР.Л.Стівенсон "Вересовий трунок". Презентація
Р.Л.Стівенсон "Вересовий трунок". Презентація
 
Безбар’єрність в бібліотеці – суспільна норма
Безбар’єрність в бібліотеці – суспільна нормаБезбар’єрність в бібліотеці – суспільна норма
Безбар’єрність в бібліотеці – суспільна норма
 
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.
 
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
Топ книг для літнього настрою: рекомендаційні списки літератури для позакласн...
 
Майстер графічного малюнку. Георгій Якутовича
Майстер графічного малюнку. Георгій ЯкутовичаМайстер графічного малюнку. Георгій Якутовича
Майстер графічного малюнку. Георгій Якутовича
 
Зернобобові культури в Україні: сучасний стан та перспективи використання
Зернобобові культури в Україні: сучасний стан та перспективи використанняЗернобобові культури в Україні: сучасний стан та перспективи використання
Зернобобові культури в Україні: сучасний стан та перспективи використання
 
Звіт директора за 2023-2024 н. р. [Автозбережено].ppt
Звіт директора  за 2023-2024 н. р. [Автозбережено].pptЗвіт директора  за 2023-2024 н. р. [Автозбережено].ppt
Звіт директора за 2023-2024 н. р. [Автозбережено].ppt
 
Звіт в.о. директора Лохвицької гімназії.pptx
Звіт в.о. директора Лохвицької гімназії.pptxЗвіт в.о. директора Лохвицької гімназії.pptx
Звіт в.о. директора Лохвицької гімназії.pptx
 
Передвиборча програма Майора Станіслава
Передвиборча програма  Майора СтаніславаПередвиборча програма  Майора Станіслава
Передвиборча програма Майора Станіслава
 
№ 133, 04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
№ 133,  04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...№ 133,  04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
№ 133, 04.06.2024, підсумки методичної роботи з учителями школи у 2023-2024 ...
 
курсова робота теорема Штольца з математики
курсова робота теорема Штольца з математикикурсова робота теорема Штольца з математики
курсова робота теорема Штольца з математики
 
Постанова №648 уряду від 04 червня 2024 року. .pdf
Постанова №648 уряду від 04 червня 2024 року. .pdfПостанова №648 уряду від 04 червня 2024 року. .pdf
Постанова №648 уряду від 04 червня 2024 року. .pdf
 
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
06.06.2024 ТСЛ Медичні довідки для закладів освіти.pdf
 
Проєкт "Подорож містами України". Буковина
Проєкт "Подорож містами України". БуковинаПроєкт "Подорож містами України". Буковина
Проєкт "Подорож містами України". Буковина
 

Lect ai 2 nn

  • 2. Література 1. http://masters.donntu.edu.ua/2003/fvti/paukov/library/neurow.htm 2. http://victoria.lviv.ua/html/oio/ 3. Уоссермен Ф. Нейрокомпьютерна техніка. - М.: Світ, 1992 4. Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теорія и   практика. – М.: Телеком, 2001. – 382 с. 5. Мак-Каллок У. С., Питтс В. Логическое исчисление идей, относящихся к  нервной активности - М.: Изд-во иностр. лит., 1956. 6. http://www.neuroproject.ru/forecasting_tutorial.php#mlp6. http://www.neuroproject.ru/forecasting_tutorial.php#mlp 7. Нейронные сети.  Саймон Хайкин. – М.: Вильямс, 2006. – 1103 с.
  • 3. Історія розвитку штучних нейронних мереж • 1943 рік — Норберт Вінер разом з співробітниками публікує роботу про кібернетику. Основною ідеєю є представлення складних біологічних процесів математичними моделями. • 1943 рік — Маккалок та Піттс формалізують поняття нейронної мережі у статті про логічне числення ідей і нервової активності. • 1949 рік — Хебб пропонує перший алгоритм навчання. • У 1958 році Розенблаттом винайдений перцептрон. Перцептрон набуває популярності — його використовують для розпізнавання образів, прогнозування погоди і т. д.прогнозування погоди і т. д. • У 1960 році Уідроу спільно зі своїм студентом Хоффом на основі дельта- правила розробили ADALINE (адаптивний суматор), який відразу почав використовуватися для завдань пророцтва і адаптивного управління. Зараз ADALINE є стандартним елементом багатьох систем обробки сигналів. • У 1961 році під керівництвом Бонгарда розроблена програма «Кора» : «.завдання Кори — пошук розділяючого правила після того, як знайдені оператори, що дають досить чіткі характеристики об'єкту або його частин».
  • 5. Історія розвитку штучних нейронних мереж • У 1969 році Мінський публікує формальний доказ обмеженості перцептрона і показує, що він нездатний вирішувати деякі завдання, пов'язані з інваріантністю представлень. Інтерес до нейронних мереж різко спадає. • 1974 рік — Пол Дж. Вербос, і А. І. Галушкін одночасно винаходять алгоритм зворотного поширення помилки для навчання багатошарових перцептронів. • 1975 рік — Фукушима представляє Когнитрон — мережу, що самоорганізовується, призначену для інваріантного розпізнавання образів, але це досягається тільки за допомогою запам'ятовування практично усіх станів образу. • 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками• 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками може бути системою, що мінімізує енергію (так звана мережа Хопфілда). Кохоненом представлені моделі мережі, що навчається без учителя (нейронна мережа Кохонена). • 1986 рік —Румельхартом, Хінтоном і Вільямсом та незалежно і одночасно Барцевим та Охониним перевідкритий та істотно розвинений метод зворотного поширення помилки. Почався вибух інтересу до навчаних нейронних мереж.
  • 6. Основи нейромережевих технологій 1. Нейронні мережі: базові поняття 2. Архітектура нейронної мережі 3. Навчання нейронної мережі
  • 7. 1. Нейронні мережі: базові поняття Усі живі істоти складаються з клітин. Будівельними блоками нервової тканини є нервові клітини — нейрони, що складаються з: –тіла клітини –дендритів (входи) –аксона (вихід)
  • 8. Біологічний нейрон   Нейрон (нервова клітка) складається з  тіла клітини –соми (soma, cell body), і  двох типів зовнішніх деревоподібних  відгалужень: аксона (axon) і дендритів  (dendrites).  Тіло клітини вміщує ядро (nucleus), що  містить інформацію про властивості  нейрона, і плазму, яка продукує необхідні  для нейрона матеріали. для нейрона матеріали.  Нейрон отримує сигнали (імпульси) від  інших нейронів через дендрити  (приймачі) і передає сигнали, згенеровані  тілом клітки, вздовж аксона  (передавач), що наприкінці  розгалужується на волокна (strands).  На закінченнях волокон знаходяться  синапси (synapses). Схема біологічного нейрона
  • 9. Як відбувається робота мозку? • Мозок складається з нейронів, які з’єднуються один з одним в єдину велику мережу. • Коли нейрон подразнюється, він передає своїм сусідам електричні сигнали певного виду. Ті обробляють сигнали і передають далі. • Ланцюжок нейронів, які можуть встигнути отримати подразнення перед ухваленням рішення, не може бути довше за декілька сотень.сотень. Мозок досягає складності та ефективності не за рахунок величезної кількістю послідовних обчислень, як сучасні комп’ютери, а вдалими зв’язками між нейронами, які дозволяють для вирішення кожного конкретного завдання задіювати ланцюжки невеликої глибини.
  • 10. Означення нейронної мережі Штучні нейронні мережі (ШНМ) – це математичні  моделі, а також їх програмні або апаратні реалізації,  побудовані за принципом організації й  функціонування біологічних нейронних мереж – мереж нервових кліток живого організму.  • Нейронні мережі не • Нейронні мережі не  програмуються у звичному змісті  цього слова, вони навчаються.  • Можливість навчання – одне з  головних переваг нейронних  мереж перед традиційними  алгоритмами. 
  • 11. Структура штучного нейрона • Нейрон є складовою частиною  нейронної мережі. Він складається з  елементів трьох типів: помножувачів  (синапсів), суматора і нелінійного  перетворювача.  • Синапси здійснюють зв’язок між  нейронами, множать вхідний сигнал на  число, що характеризує силу зв’язку, (вагу  синапса).  bxwS n i ii  1  . W1 … Wi … Wn x1 11 синапса).  • Суматор виконує додавання  сигналів, що надходять по синаптичним  зв’язках від інших нейронів і зовнішніх  вхідних сигналів.  • Нелінійний перетворювач реалізує  нелінійну функцію одного аргументу – виходу суматора. Ця функція називається  функцією активації чи передатною  функцією нейрона. )(sfy     . . . . . . . . . s y f b x1 xn xi . . . Структура штучного нейрона Математична модель штучного нейрона:
  • 12. Математична інтерпретація дії нейрона Стан нейрона: Отриманий сумарний імпульс (вхід) Вихідний сигнал нейрона:Вихідний сигнал нейрона: Функція f називається активаційною і є, як правило, сигмоїдною:
  • 13. Результат! Сила вихідного сигналу: Нейрон повністю описується своїми вагами та активаційною функцією Отримавши на вході набір чисел – параметри (вектор) – нейрон в залежності від своїх ваг на виході дасть деяке число Сумуючий блок, який відповідає тілу біологічного нейрона, складає зважені входи алгебраїчно, створюючи вихід, який ми називатимемо NET.
  • 14. Активізаційні функції Сигнал NET далі, як правило, перетворюється активаційною функцією F і дає вихідний нейронний сигнал OUT = F(NET). Активаційна функція F(NET) може бути:
  • 15. Віаs-нейрон Нейрон – пороговий елемент Зазвичай коефіцієнтів (які зазвичай налаштовуються); — активаційна функція (нелінійна порогова). де S j — постсинаптичний потенціал; bj — порогове значення (вагові коефіцієнти зв'язків з Bias-нейроном); Wj — вектор вагових f y j  f (x,Wj) ) (     ( ) j T T j j j j j S y f W x y W x b    Bias-нейрон — фіктивний нейрон, пов'язаний з усіма нейронами мережі (крім вхідних), вихід якого дорівнює 1. Можливі два види порогових функцій. — асиметрична, — симетрична. Щоб забезпечити можливість використання градієнтних методів оптимізації для налаштовання вагових коефіцієнтів застосовують гладку активаційну функцію. Найчастіше використовуються наступні активаційні функції: 0, x  0 1, x  0 f (x)    1, x  0 1, x  0 f (x)  
  • 16. Нейронна мережа Особливості: • Нейронна мережа – спрощена модель біологічного аналогу. • Демонструє властивості, що характерні людському мозку, – це вирішення задач на основі досвіду, узагальнення, отримання істотних даних з надлишкової інформації. • Як правило, активаційні функції всіх нейронів в нейронній• Як правило, активаційні функції всіх нейронів в нейронній мережі фіксовані, а ваги є параметрами нейронної мережі і можуть змінюватися. • Робота нейронної мережі полягає в перетворенні вхідного вектора у вихідний вектор, причому це перетворення задається вагами нейронної мережі.
  • 17. 2. Архітектура нейронної мережі • Більшість нейронних мереж  містять як мінімум три нормальних  типи прошарків – вхідний,  прихований та вихідний.  • Прошарок вхідних нейронів  отримує дані або з вхідних файлів,  або безпосередньо з електронних  Діаграма простої нейронної мережі або безпосередньо з електронних  давачів.   • Вихідний прошарок пересилає інформацію безпосередньо до  зовнішнього середовища.  •Входи та виходи кожного з прихованих нейронів просто йдуть до  інших нейронів.
  • 18. Штучна нейронна мережа  ШНМ — багатошарова нейромережева архітектура одного з трьох видів: – без зворотних зв'язків (feed-forward), – з зворотними зв'язками – з латеральним гальмуванням.
  • 19. Режими функціонування мережі НМ функціонують у наступних режимах: – навчання — налагодження всіх коефіцієнтів; – тестування — перевірка працездатності мережі на незалежній вибірці; – прогін — використання мережі на невідомих даних. Існує два режими навчання:Існує два режими навчання: – з учителем — на вхід мережі подаються вхідні образи, на вихід — цільовий вихід. Вагові коефіцієнти налаштовуються на основі помилки між реальним і бажаним виходом. – без учителя — на вихід дані не подаються. Мережа сама формує взаємозв'язки між однотипними вхідними даними (кластеризація).
  • 20. Приклад використання нейромережі Задача розпізнавання рукописних літер. Дано: растрове чорно-біле зображення розміром 30*30 пікселів. Потрібно: визначити, яка це літера (в алфавіті 33 літери). Інтерпретація задачі для нейронної мережі. Дано:Дано: дано вхідний вектор із 900 двійкових символів (30*30=900). Потрібно: потрібно побудувати нейронну мережу із 900 входами та 33 виходами, які помічені літерами. Якщо на вході нейронної мережі зображення літери «А», то максимальне значення вихідного сигналу досягається на виході «А». Аналогічно нейронна мережа працює для всіх 33 літер.
  • 21. Як побудувати нейромережу? 1. Вибір типу (архітектури) нейронної мережі.  які нейрони ми хочемо використовувати (кількість входів, активаційні функції);  яким чином слід з’єднати їх між собою;  що взяти за входи і виходи нейронної мережі. Підбір ваг (навчання) нейронної мережі.2. Підбір ваг (навчання) нейронної мережі.
  • 22. Приклади архітектур нейромережі: Перцептрон Розенблата. Багатошаровий перцептрон. Мережа Джордана. Мережа Елмана. Мережа Хемінга. x1 W Мережа Хемінга. Мережа Кохонена ... x2 xn . . . S-елементи A-елементи R-елементи
  • 23. Навчання штучної нейронної мережі Існують три загальні парадигми навчання: • "з вчителем“ - нейромережа має у своєму  розпорядженні правильні відповіді (виходи  мережі) на кожен вхідний приклад.  • "без вчителя" (самонавчання) - не вимагає • "без вчителя" (самонавчання) - не вимагає  знання правильних відповідей на кожен  приклад навчальної вибірки.  • змішана - частина ваг визначається за  допомогою навчання зі вчителем, у той час  як інша визначається за допомогою  самонавчання.
  • 24. Навчання нейромережі • Основна ідея: корекція коефіцієнтів у випадку, якщо після пред’явлення чергового навчального вектора фактичний вихід не збігається з бажаним. Така корекція може здійснюватися після кожного пред’явлення чергового вектора.
  • 25. Навчання штучної нейронної мережі Правила навчання нейромережі: • Правило Хеба.Правило Хеба. Wij(k)=r xj (k) yi (k), r - коефіцієнт швидкості навчання.  • Правило ХопфілдаПравило Хопфілда. Якщо одночасно вихідний та вхідний сигнал нейрона є  активними або неактивними, збільшуємо вагу з'єднання оцінкою навчання,  інакше зменшуємо вагу оцінкою навчання. • Правило "дельта".Правило "дельта". Wij= xj (di - yi).• Правило "дельта".Правило "дельта". Wij= xj (di - yi). • Правило градієнтного спуску.Правило градієнтного спуску. До кінцевого коефіцієнта зміни, що діє на  вагу, додається пропорційна константа, яка пов'язана з оцінкою навчання.  •• Навчання методом змагання.Навчання методом змагання. Wij (k+1)= Wij(k)+r [xjWij (k+1)= Wij(k)+r [xj -- Wij(k)].Wij(k)]. • правило Уїдроу-Хопфа Інша назва - -правило. • Для нейрона з лінійною функцією активації (ADALINE). wj:= wj + α(d-y)xj , θ:= θ -α(d-y)
  • 26. Особливості нейромереж: Конекціонізм – глобальність зв’язків нейронів та їх нелінійна дія. Локальність і паралелелізм – кожен нейрон реагує лише на локальну інформацію, що поступає до нього в даний момент від пов’язаних з ним таких же нейронів, без звертання до загального стану обчислень.звертання до загального стану обчислень. Навчання – кожен нейрон змінює синапсичні ваги локально, в залежності від інформації, яка до нього надійшла. Чорний ящик – нездатність нейромережі пояснити результат. Він є і все!
  • 27. Модель перcептрона Найпростіша мережа, що складається з одного нейрона, називається персептроном. Модель персептрона має вигляд, показаний на рис. 1 х yy  R, y  {1, 1} При цьому x  R d , або x  {1, 1 }d , або . Розглянемо випадок x  R d , y  {  1 , 1 } Функціонування персептрона описується залежністю: 27 dде – деякий поріг. y  sign (W T x  )   ( x,W ) (1) Ця модель персептрона — лінійного порогового елемента (LTU — linear threshold unit) — перша модель нейронної мережі. Вона була запропонована Розенблаттом (Frank Rosenblatt) (рис.). H  {x : W T x  } H  {x : W Tx } {x : y 1}  {x : y  1}  (2) з розділяючою гіперплощиною (афінний підпростір розмірності d 1 ): H  {x : W T x    0} (3) У геометричній інтерпретації рівняння (1) визнач,ає 2 підпростори
  • 29. Максимальний розмір навчальної множини Розмір навчальної множини не повинен перевищувати N   2(d 1)  2d, тобто кожний ваговий коефіцієнт (зв'язок) здатен "запам'ятати" приблизно 2 вхідні образи. 29 приблизно 2 вхідні образи. Методи лінійного програмування для розв’язання нерівності (5) (симплекс-метод) забезпечують пакетну обробку, що не відображає процес навчання. Для навчання необхідний інтерак - тивний або on-line алгоритм, що корегує вагові коефіцієнти після пред'явлення мережі кожного образа.
  • 31. , але найчастіше вибирають , для нормування множини тори мали одиничну довжину. 1. У базовому алгоритмі навчання персептрона k 1 k zij ~ 1   F таким чином, щоб усі його век - ~ Операції 4 обумовлені пошуком розв’язку W у формі ~ ,   0 .~z ~ W   Алгоритм навчання персептрона Розенблатта 31 Крім того . негативного значення на наступному кроці було отримане додатне (п. 4 виконується тільки у випадку негативного добутку). ,   0 .j j j ij ~zW   zijj zij Wj zij ~ 2 ~ ~wj1Wj1 zij ~~ ~  ~ ЗначенняW j — збільшується, щоб після поточного ~
  • 32. Обмеженість простих персептронів  Ряд експериментів, в першу чергу - з розпізнавання.  Аналіз Мінського і Пейперта: системи, подібні до персептронів, в принципі не можуть розв’язувати ряд задач.  По суті - алгоритми навчання таких систем еквівалентні знаходженню лінійної розділяючої функції.функції.  Тобто - якщо є лінійне розділення, то алгоритм знайде коефіцієнти лінійної розділяючої функції. Якщо ні - то ні.  Класичний приклад: задача XOR.
  • 33. Багатошарові нейронні мережі  Багатошарові (1986 р.) мережі володіють значно більшими можливостями, ніж одношарові. Проте багатошарові мережі можуть привести до збільшення обчислювальної потужності в порівнянні з одношаровими лише в тому випадку, якщо активаційна функція між шарами буде нелінійною.
  • 34. Багатошарові нейронні мережі: загальний опис • Вхідний шар сприймає вхідні дані та розподіляє їх до наступного шару. • Вихідний шар видає результати. • Між ними - проміжні, або сховані шари. • Вихід кожного нейрону попереднього шару з’єднаний з входами усіх нейронів наступного шару; wik - зв’язок між i-м нейроном попереднього шару та k-м нейроном наступного.наступного. • Ключова ідея: багатошарові нейронні мережі можуть здійснювати нелінійне розділення. • Класичний метод - метод зворотного розповсюдження помилок (back propagation). • Активаційна функція не повинна бути лінійною. Часто використовуються, зокрема, сигмоїдні активаційні функції.
  • 35. Багатошарові нейронні мережі прямого розповсюдження  Мережа прямого поширення являє собою багатошарову нейронну мережу без зворотних зв'язків, у якій вихід кожного нейрона шару з'єднаний із входами всіх нейронів наступного шару, а для перетворення сигналу вхідного збудження (постсинаптичного потенціалу) кожного нейрона прихованого і вихідного шару у вихідний сигналприхованого і вихідного шару у вихідний сигнал використовується нелінійна активаційна функція.  Поріг спрацьовування кожного нейрона реалізується за допомогою використання так званого Bias- нейрона, вихід якого завжди має значення 1, а ваговий коефіцієнт зв'язку цього нейрона з іншими нейронами мережі налаштовується в процесі навчання (рис.). 35
  • 36. MLP (Multilayer Perceptron) - багатошарова нейронна мережа без зворотних зв'язків 36
  • 37. Вхідні і вихідні дані Розмірність вхідного шару мережі прямого поширення (рис.) відповідає розмірності вектора вхідних даних задачі. Розмірність вихідного шару визначається специфікою конкретної задачі. Вектор, що містить пару векторів (вхідний і цільовий вектори), називається також образом або 37 вектори), називається також образом або елементом навчальної вибірки (навчальної множини). Множина образів складає епоху — послідовність образів довільної розмірності, що включає в себе образи всіх можливих типів (класів). Кожен вхідний вектор перетворюється мережею у вихідний вектор, розмірність якого визначається типом задачі (класифікація або інтерполяція) і збігається з розмірністю вихідного шару мережі.
  • 38. Режими роботи Мережі прямого поширення можуть функціонувати в трьох режимах: Навчання — настроювання вагових коефіцієнтів. 38 Тестування — перевірки ефективності навчання на незалежних даних. Прогін — формування вихідних даних на основі перетворення мережею вхідної інформації при налаштованих вагових коефіцієнтах зв'язків між шарами.
  • 39. Приклад – задача класифікації земного покриву за супутниковими даними Дано – супутникові знімки різних апаратів (різна кількість каналів) різного розрізнення (Часового та просторового) Завдання – побудувати “Маску” сільгоспкультур 39 Завдання – побудувати “Маску” сільгоспкультур Розв’язання задачі: 1.Сформувати навчальну та тестову (незалежну) вибірку 2.Навчити класифікатор 3.Перевірити точність на незалежних тестових даних 5. Використовувати в операційному режимі
  • 42. Картографування природного рослинного покриву (ceреднє розрізнення) Дані  Landsat-7/ETM+ Розрізнення  30 м Точність класифікації до 88.93% до 88.93%
  • 44. Режим навчання з вчителем 44
  • 46. Оптимізація вагових коефіцієнтів за методом градієнтного спуску 46
  • 47. Варіанти методу зворотнього поширення похибки  Існує два основних варіанти методу зворотного поширення похибки: • on-line (некумулятивний) • off-line (кумулятивний) 47 Похідна для кожного образу г р а д і є н т
  • 48. Варіанти методу зворотнього поширення похибки 48
  • 49. Кумулятивний та некумулятивний метод навчання мережі а) кумулятивний метод близький до реального  градієнтного спуску 49 б) некумулятивне навчання вносить елемент випадковості Процес зміни вагових коефіцієнтів при кумулятивному та некумулятивному способі навчання
  • 52. Обчислення похідних Повертаючись до з врахуванням та Wij SkE Wij Ep   N0 k1 Sk i  y S 52 з врахуванням та маємо i  y j Wi j S ij  i  y j . W E p iki i yk S y S  E E  p  p
  • 53. Алгоритм зворотного поширення похибки 1. На вхід мережі подається вхідний вектор з навчальної вибірки. 2. Виконується прогін мережі (прямий прохід), і обчислюється реальний вихід, що відповідає даному входу (відповідно до приведених вище формул). 3. Отриманий вихід порівнюється з цільовим виходом для даного вхідного вектора й обчислюється похибка на 53 даного вхідного вектора й обчислюється похибка на виході мережі. 4. Обчислюється похідна функції помилки по кожному з вагових коефіцієнтів мережі. 5. Вагові коефіцієнти налаштовуються таким чином, щоб мінімізувати похибку на виході мережі. 6. Здійснюється перехід до п. 1. Процедура повторюється доти, доки похибка не потрапить у припустимі межі або доки не буде досягнуто задане число ітерацій.
  • 54. And Finally…. “If the brain were so simple that we could understand itthat we could understand it then we’d be so simple that we couldn’t”