Урок № 12 Конструкційні матеріали та їх властивості. Доцільність вибору конс...ssusere1ecc1
Урок № 12 Конструкційні матеріали та їх властивості. Доцільність вибору конструкційних матеріалів. Види художньої обробки матеріалів. Дослідження властивостей матеріалів..pptx
Урок № 12 Конструкційні матеріали та їх властивості. Доцільність вибору конс...ssusere1ecc1
Урок № 12 Конструкційні матеріали та їх властивості. Доцільність вибору конструкційних матеріалів. Види художньої обробки матеріалів. Дослідження властивостей матеріалів..pptx
- An artificial neural network consists of simple processing units called neurons connected in a network similar to a biological neural system. Each neuron receives inputs from other neurons and processes the inputs using an activation function to determine its output.
- A common type of artificial neural network has three layers of neurons: an input layer, a hidden layer, and an output layer. The input layer receives information from the environment, the hidden layer transforms the inputs, and the output layer provides the network's predictions or decisions.
- Each neuron calculates a weighted sum of its inputs and passes the result through an activation function to determine its output. During training, the weights are adjusted to minimize error between the network's predictions and correct outputs.
Передвиборча програма Ковальової Катериниtetiana1958
Передвиборча програма Ковальової Катерини - кандидатки на посаду голови Студентського самоврядування Факультету переробних і харчових виробництв Державного біотехнологічного університету (м. Харків)
Безбар’єрність в бібліотеці – суспільна нормаssuser15a891
Виступ директора Арцизької міської публічної бібліотеки Галини Стоматової 08.06.2024 р. під час засідання круглого столу «Безбар’єрне середовище в публічній бібліотеці: комфорт для кожного», який відбувся в місті Чорноморськ, в рамках ХХІV Інтелект-форуму «Українська книга на Одещині»
Випуск магістрів- науковців факультету мехатроніки та інжинірингу, 2024 р.tetiana1958
Державний біотехнологічний університет.
Випуск магістрів-науковців факультету мехатроніки та інжинірингу, 2024 р.
Спеціальність 133 "Галузеве машинобудування"
Нинішній етап розвитку економіки країни вимагає підвищеного попиту на сільськогосподарську продукцію, виробництво якої неможливе без розвинутого агропромислового комплексу. Тому вплив наукових розробок на сферу виробництва сільськогосподарської продукції набуває все більшої уваги, розцінюється як визначальний фактор інноваційного розвитку в розбудові продовольчого ринку України.
У сучасних умовах сільськогосподарського виробництва пріоритетним напрямком наукових досліджень є обґрунтування та удосконалення сучасних агротехнологій вирощування зернобобових культур на засадах енерго- і ресурсозбереження та екологічної безпечності. Зернобобові культури належать до цінних у продовольчому, кормовому та агроекологічному значенні рослин сільського господарства України.
За посівними площами та валовими зборами товарного насіння група зернобобових культур у світовому землеробстві займає друге місце після зернових. Така їхня позиція зумовлена тим, що вони є найдешевшим джерелом високоякісного білка для харчування людей і годівлі тварин та птиці. Крім цього, насіння бобових вирізняється позитивним впливом на здоров’я людей та тварин завдяки оптимально поєднаному в ньому амінокислотному складу, комплексу вітамінів, мінеральних елементів, інших біологічно активних сполук.
Передвиборча програма Майора Станіславаtetiana1958
Передвиборча програма Майора Станіслава - кандидата на посаду голови Студентського самоврядування Факультету переробних і харчових виробництв Державного біотехнологічного університету (м. Харків)
проєкту від Національної бібліотеки України для дітей «Подорож містами України», у якому ти відкриєш для себе найкращі краєзнавчі перлини Батьківщини. Дванадцята зупинка присвячена західному, колоритному, найменшому за розміром регіону України - Чернівецькій області, яку називають Буковиною.
3. Історія розвитку штучних нейронних мереж
• 1943 рік — Норберт Вінер разом з співробітниками публікує роботу про
кібернетику. Основною ідеєю є представлення складних біологічних
процесів математичними моделями.
• 1943 рік — Маккалок та Піттс формалізують поняття нейронної мережі у
статті про логічне числення ідей і нервової активності.
• 1949 рік — Хебб пропонує перший алгоритм навчання.
• У 1958 році Розенблаттом винайдений перцептрон. Перцептрон набуває
популярності — його використовують для розпізнавання образів,
прогнозування погоди і т. д.прогнозування погоди і т. д.
• У 1960 році Уідроу спільно зі своїм студентом Хоффом на основі дельта-
правила розробили ADALINE (адаптивний суматор), який відразу почав
використовуватися для завдань пророцтва і адаптивного управління. Зараз
ADALINE є стандартним елементом багатьох систем обробки сигналів.
• У 1961 році під керівництвом Бонгарда розроблена
програма «Кора» : «.завдання Кори — пошук розділяючого
правила після того, як знайдені оператори, що дають досить
чіткі характеристики об'єкту або його частин».
5. Історія розвитку штучних нейронних мереж
• У 1969 році Мінський публікує формальний доказ обмеженості перцептрона
і показує, що він нездатний вирішувати деякі завдання, пов'язані з
інваріантністю представлень. Інтерес до нейронних мереж різко спадає.
• 1974 рік — Пол Дж. Вербос, і А. І. Галушкін одночасно винаходять алгоритм
зворотного поширення помилки для навчання багатошарових перцептронів.
• 1975 рік — Фукушима представляє Когнитрон — мережу, що
самоорганізовується, призначену для інваріантного розпізнавання
образів, але це досягається тільки за допомогою запам'ятовування практично
усіх станів образу.
• 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками• 1982 рік —Хопфілд показав, що нейронна мережа із зворотними зв'язками
може бути системою, що мінімізує енергію (так звана мережа Хопфілда).
Кохоненом представлені моделі мережі, що навчається без учителя
(нейронна мережа Кохонена).
• 1986 рік —Румельхартом, Хінтоном і Вільямсом та
незалежно і одночасно Барцевим та Охониним
перевідкритий та істотно розвинений метод зворотного
поширення помилки. Почався вибух інтересу до навчаних
нейронних мереж.
7. 1. Нейронні мережі: базові поняття
Усі живі істоти складаються з клітин.
Будівельними блоками нервової тканини є
нервові клітини — нейрони, що складаються з:
–тіла клітини
–дендритів (входи)
–аксона (вихід)
9. Як відбувається робота мозку?
• Мозок складається з нейронів, які з’єднуються один з одним в
єдину велику мережу.
• Коли нейрон подразнюється, він передає своїм сусідам електричні
сигнали певного виду. Ті обробляють сигнали і передають далі.
• Ланцюжок нейронів, які можуть встигнути отримати подразнення
перед ухваленням рішення, не може бути довше за декілька
сотень.сотень.
Мозок досягає складності та ефективності
не за рахунок величезної кількістю
послідовних обчислень, як сучасні
комп’ютери, а вдалими зв’язками між
нейронами, які дозволяють для
вирішення кожного конкретного завдання
задіювати ланцюжки невеликої глибини.
10. Означення нейронної мережі
Штучні нейронні мережі (ШНМ) – це математичні
моделі, а також їх програмні або апаратні реалізації,
побудовані за принципом організації й
функціонування біологічних нейронних мереж –
мереж нервових кліток живого організму.
• Нейронні мережі не • Нейронні мережі не
програмуються у звичному змісті
цього слова, вони навчаються.
• Можливість навчання – одне з
головних переваг нейронних
мереж перед традиційними
алгоритмами.
12. Математична інтерпретація дії нейрона
Стан нейрона:
Отриманий сумарний імпульс (вхід)
Вихідний сигнал нейрона:Вихідний сигнал нейрона:
Функція f називається активаційною і є, як правило,
сигмоїдною:
13. Результат!
Сила вихідного сигналу:
Нейрон повністю описується своїми вагами та активаційною
функцією
Отримавши на вході набір чисел – параметри (вектор) – нейрон в
залежності від своїх ваг на виході дасть деяке число
Сумуючий блок, який відповідає тілу біологічного нейрона, складає
зважені входи алгебраїчно, створюючи вихід, який ми називатимемо
NET.
14. Активізаційні
функції
Сигнал NET далі, як правило, перетворюється активаційною функцією F і дає
вихідний нейронний сигнал OUT = F(NET). Активаційна функція F(NET)
може бути:
15. Віаs-нейрон
Нейрон – пороговий елемент
Зазвичай
коефіцієнтів (які зазвичай налаштовуються); — активаційна
функція (нелінійна порогова).
де S j — постсинаптичний потенціал; bj — порогове значення
(вагові коефіцієнти зв'язків з Bias-нейроном); Wj — вектор вагових
f
y j f (x,Wj)
) ( ( )
j
T T
j j j j j
S
y f W x y W x b
Bias-нейрон — фіктивний нейрон, пов'язаний з усіма нейронами
мережі (крім вхідних), вихід якого дорівнює 1. Можливі два види
порогових функцій.
— асиметрична,
— симетрична.
Щоб забезпечити можливість використання градієнтних методів
оптимізації для налаштовання вагових коефіцієнтів застосовують
гладку активаційну функцію. Найчастіше використовуються наступні
активаційні функції:
0, x 0
1, x 0
f (x)
1, x 0
1, x 0
f (x)
16. Нейронна мережа
Особливості:
• Нейронна мережа – спрощена модель біологічного аналогу.
• Демонструє властивості, що характерні людському мозку, – це
вирішення задач на основі досвіду, узагальнення, отримання
істотних даних з надлишкової інформації.
• Як правило, активаційні функції всіх нейронів в нейронній• Як правило, активаційні функції всіх нейронів в нейронній
мережі фіксовані, а ваги є параметрами нейронної мережі і
можуть змінюватися.
• Робота нейронної мережі полягає в перетворенні вхідного
вектора у вихідний вектор, причому це перетворення задається
вагами нейронної мережі.
17. 2. Архітектура нейронної мережі
• Більшість нейронних мереж
містять як мінімум три нормальних
типи прошарків – вхідний,
прихований та вихідний.
• Прошарок вхідних нейронів
отримує дані або з вхідних файлів,
або безпосередньо з електронних
Діаграма простої нейронної мережі
або безпосередньо з електронних
давачів.
• Вихідний прошарок пересилає інформацію безпосередньо до
зовнішнього середовища.
•Входи та виходи кожного з прихованих нейронів просто йдуть до
інших нейронів.
18. Штучна нейронна мережа
ШНМ — багатошарова нейромережева архітектура одного з трьох видів:
– без зворотних зв'язків (feed-forward),
– з зворотними зв'язками
– з латеральним гальмуванням.
19. Режими функціонування мережі
НМ функціонують у наступних режимах:
– навчання — налагодження всіх коефіцієнтів;
– тестування — перевірка працездатності мережі на
незалежній вибірці;
– прогін — використання мережі на невідомих даних.
Існує два режими навчання:Існує два режими навчання:
– з учителем — на вхід мережі подаються вхідні
образи, на вихід — цільовий вихід. Вагові коефіцієнти
налаштовуються на основі помилки між реальним і
бажаним виходом.
– без учителя — на вихід дані не подаються. Мережа сама
формує взаємозв'язки між однотипними вхідними даними
(кластеризація).
20. Приклад використання нейромережі
Задача розпізнавання рукописних літер.
Дано:
растрове чорно-біле зображення розміром 30*30 пікселів.
Потрібно:
визначити, яка це літера (в алфавіті 33 літери).
Інтерпретація задачі для нейронної мережі.
Дано:Дано:
дано вхідний вектор із 900 двійкових символів (30*30=900).
Потрібно:
потрібно побудувати нейронну мережу із 900 входами та 33 виходами,
які помічені літерами.
Якщо на вході нейронної мережі зображення літери «А», то
максимальне значення вихідного сигналу досягається на виході «А».
Аналогічно нейронна мережа працює для всіх 33 літер.
21. Як побудувати нейромережу?
1. Вибір типу (архітектури) нейронної мережі.
які нейрони ми хочемо використовувати (кількість
входів, активаційні функції);
яким чином слід з’єднати їх між собою;
що взяти за входи і виходи нейронної мережі.
Підбір ваг (навчання) нейронної мережі.2. Підбір ваг (навчання) нейронної мережі.
23. Навчання штучної нейронної мережі
Існують три загальні парадигми навчання:
• "з вчителем“ - нейромережа має у своєму
розпорядженні правильні відповіді (виходи
мережі) на кожен вхідний приклад.
• "без вчителя" (самонавчання) - не вимагає • "без вчителя" (самонавчання) - не вимагає
знання правильних відповідей на кожен
приклад навчальної вибірки.
• змішана - частина ваг визначається за
допомогою навчання зі вчителем, у той час
як інша визначається за допомогою
самонавчання.
24. Навчання нейромережі
• Основна ідея: корекція коефіцієнтів у
випадку, якщо після пред’явлення чергового
навчального вектора фактичний вихід не
збігається з бажаним. Така корекція може
здійснюватися після кожного пред’явлення
чергового вектора.
25. Навчання штучної нейронної мережі
Правила навчання нейромережі:
• Правило Хеба.Правило Хеба. Wij(k)=r xj (k) yi (k), r - коефіцієнт швидкості навчання.
• Правило ХопфілдаПравило Хопфілда. Якщо одночасно вихідний та вхідний сигнал нейрона є
активними або неактивними, збільшуємо вагу з'єднання оцінкою навчання,
інакше зменшуємо вагу оцінкою навчання.
• Правило "дельта".Правило "дельта". Wij= xj (di - yi).• Правило "дельта".Правило "дельта". Wij= xj (di - yi).
• Правило градієнтного спуску.Правило градієнтного спуску. До кінцевого коефіцієнта зміни, що діє на
вагу, додається пропорційна константа, яка пов'язана з оцінкою навчання.
•• Навчання методом змагання.Навчання методом змагання. Wij (k+1)= Wij(k)+r [xjWij (k+1)= Wij(k)+r [xj -- Wij(k)].Wij(k)].
• правило Уїдроу-Хопфа Інша назва - -правило.
• Для нейрона з лінійною функцією активації (ADALINE).
wj:= wj + α(d-y)xj ,
θ:= θ -α(d-y)
26. Особливості нейромереж:
Конекціонізм – глобальність зв’язків нейронів та їх
нелінійна дія.
Локальність і паралелелізм – кожен нейрон реагує лише
на локальну інформацію, що поступає до нього в даний
момент від пов’язаних з ним таких же нейронів, без
звертання до загального стану обчислень.звертання до загального стану обчислень.
Навчання – кожен нейрон змінює
синапсичні ваги локально, в
залежності від інформації, яка до
нього надійшла.
Чорний ящик – нездатність
нейромережі пояснити результат.
Він є і все!
27. Модель перcептрона
Найпростіша мережа, що складається з одного нейрона, називається
персептроном. Модель персептрона має вигляд, показаний на рис.
1
х yy R, y {1, 1}
При цьому
x R d , або x {1, 1 }d
,
або .
Розглянемо
випадок
x R d , y { 1 , 1 }
Функціонування персептрона описується залежністю:
27
dде – деякий поріг.
y sign (W T
x ) ( x,W ) (1)
Ця модель персептрона — лінійного порогового елемента (LTU — linear threshold
unit) — перша модель нейронної мережі. Вона була запропонована Розенблаттом
(Frank Rosenblatt) (рис.).
H
{x : W T
x }
H {x : W Tx }
{x : y 1}
{x : y 1}
(2)
з розділяючою гіперплощиною (афінний підпростір розмірності d 1 ): H {x : W T
x 0}
(3)
У геометричній інтерпретації рівняння (1) визнач,ає 2 підпростори
29. Максимальний розмір навчальної
множини
Розмір навчальної множини не повинен перевищувати
N
2(d 1) 2d,
тобто кожний ваговий коефіцієнт (зв'язок) здатен "запам'ятати"
приблизно 2 вхідні образи.
29
приблизно 2 вхідні образи.
Методи лінійного програмування для розв’язання нерівності (5)
(симплекс-метод) забезпечують пакетну обробку, що не відображає
процес навчання.
Для навчання необхідний інтерак - тивний або on-line
алгоритм, що корегує вагові коефіцієнти після пред'явлення мережі
кожного образа.
31. , але
найчастіше вибирають
,
для нормування множини
тори мали одиничну довжину.
1. У базовому алгоритмі навчання персептрона k 1
k
zij
~
1
F таким чином, щоб усі його век -
~
Операції 4 обумовлені пошуком розв’язку W у формі
~
, 0 .~z
~
W
Алгоритм навчання персептрона Розенблатта
31
Крім того
.
негативного значення на наступному кроці було отримане
додатне (п. 4 виконується тільки у випадку негативного
добутку).
, 0 .j
j
j ij
~zW
zijj zij
Wj zij
~ 2
~ ~wj1Wj1 zij
~~ ~ ~
ЗначенняW j — збільшується, щоб після поточного
~
32. Обмеженість простих персептронів
Ряд експериментів, в першу чергу - з розпізнавання.
Аналіз Мінського і Пейперта: системи, подібні до
персептронів, в принципі не можуть розв’язувати ряд
задач.
По суті - алгоритми навчання таких систем
еквівалентні знаходженню лінійної розділяючої
функції.функції.
Тобто - якщо є лінійне розділення, то алгоритм знайде
коефіцієнти лінійної розділяючої функції. Якщо ні - то
ні.
Класичний приклад: задача XOR.
33. Багатошарові нейронні мережі
Багатошарові (1986 р.) мережі володіють значно більшими
можливостями, ніж одношарові. Проте багатошарові мережі можуть
привести до збільшення обчислювальної потужності в порівнянні з
одношаровими лише в тому випадку, якщо активаційна функція між
шарами буде нелінійною.
34. Багатошарові нейронні мережі: загальний опис
• Вхідний шар сприймає вхідні дані та розподіляє їх до
наступного шару.
• Вихідний шар видає результати.
• Між ними - проміжні, або сховані шари.
• Вихід кожного нейрону попереднього шару з’єднаний з
входами усіх нейронів наступного шару; wik - зв’язок між
i-м нейроном попереднього шару та k-м нейроном
наступного.наступного.
• Ключова ідея: багатошарові нейронні мережі можуть
здійснювати нелінійне розділення.
• Класичний метод - метод зворотного розповсюдження
помилок (back propagation).
• Активаційна функція не повинна бути лінійною. Часто
використовуються, зокрема, сигмоїдні активаційні
функції.
35. Багатошарові нейронні мережі прямого
розповсюдження
Мережа прямого поширення являє собою
багатошарову нейронну мережу без зворотних
зв'язків, у якій вихід кожного нейрона шару з'єднаний
із входами всіх нейронів наступного шару, а для
перетворення сигналу вхідного збудження
(постсинаптичного потенціалу) кожного нейрона
прихованого і вихідного шару у вихідний сигналприхованого і вихідного шару у вихідний сигнал
використовується нелінійна активаційна функція.
Поріг спрацьовування кожного нейрона реалізується
за допомогою використання так званого Bias- нейрона,
вихід якого завжди має значення 1, а ваговий
коефіцієнт зв'язку цього нейрона з іншими нейронами
мережі налаштовується в процесі навчання (рис.).
35
37. Вхідні і вихідні дані
Розмірність вхідного шару мережі прямого
поширення (рис.) відповідає розмірності вектора
вхідних даних задачі.
Розмірність вихідного шару визначається
специфікою конкретної задачі.
Вектор, що містить пару векторів (вхідний і цільовий
вектори), називається також образом або
37
вектори), називається також образом або
елементом навчальної вибірки (навчальної
множини).
Множина образів складає епоху — послідовність
образів довільної розмірності, що включає в себе
образи всіх можливих типів (класів).
Кожен вхідний вектор перетворюється мережею у вихідний вектор, розмірність
якого визначається типом задачі (класифікація або інтерполяція) і збігається з
розмірністю вихідного шару мережі.
38. Режими роботи
Мережі прямого поширення можуть
функціонувати в трьох режимах:
Навчання — настроювання вагових
коефіцієнтів.
38
Тестування — перевірки ефективності
навчання на незалежних даних.
Прогін — формування вихідних даних
на основі перетворення мережею вхідної
інформації при налаштованих вагових
коефіцієнтах зв'язків між шарами.
39. Приклад – задача класифікації земного
покриву за супутниковими даними
Дано – супутникові знімки різних апаратів (різна
кількість каналів) різного розрізнення (Часового та
просторового)
Завдання – побудувати “Маску” сільгоспкультур
39
Завдання – побудувати “Маску” сільгоспкультур
Розв’язання задачі:
1.Сформувати навчальну та тестову (незалежну) вибірку
2.Навчити класифікатор
3.Перевірити точність на незалежних тестових даних
5. Використовувати в операційному режимі
47. Варіанти методу зворотнього поширення
похибки
Існує два основних варіанти методу
зворотного поширення похибки:
• on-line (некумулятивний)
• off-line (кумулятивний)
47
Похідна для кожного образу
г р а д і є н т
49. Кумулятивний та некумулятивний метод
навчання мережі
а) кумулятивний метод близький до реального
градієнтного спуску
49
б) некумулятивне навчання вносить елемент випадковості
Процес зміни вагових коефіцієнтів при кумулятивному та
некумулятивному способі навчання
52. Обчислення похідних
Повертаючись до
з врахуванням та
Wij
SkE
Wij
Ep
N0
k1 Sk
i
y
S
52
з врахуванням та
маємо
i
y j
Wi j
S
ij
i y j .
W
E p
iki
i
yk
S y S
E E
p
p
53. Алгоритм зворотного поширення похибки
1. На вхід мережі подається вхідний вектор з навчальної
вибірки.
2. Виконується прогін мережі (прямий прохід), і
обчислюється реальний вихід, що відповідає даному входу
(відповідно до приведених вище формул).
3. Отриманий вихід порівнюється з цільовим виходом для
даного вхідного вектора й обчислюється похибка на
53
даного вхідного вектора й обчислюється похибка на
виході мережі.
4. Обчислюється похідна функції помилки по кожному з
вагових коефіцієнтів мережі.
5. Вагові коефіцієнти налаштовуються таким чином, щоб
мінімізувати похибку на виході мережі.
6. Здійснюється перехід до п. 1. Процедура повторюється
доти, доки похибка не потрапить у припустимі межі або
доки не буде досягнуто задане число ітерацій.
54. And Finally….
“If the brain were so simple
that we could understand itthat we could understand it
then we’d be so simple that
we couldn’t”