SlideShare a Scribd company logo
1 of 24
Download to read offline
Artificial Intelligence
Штучний інтелект в бізнесі і проектах
Святослав Надозірний, 2023
Що таке AI?
Штучний інтелект базується на ідеї, що машини можна запрограмувати для
моделювання та повторення людського інтелекту, наприклад здатності
розпізнавати шаблони, розуміти природну мову, міркувати, вчитися на
досвіді та приймати рішення на основі даних. Технології AI включають
машинне навчання, глибоке навчання, обробку природної мови, комп’
ютерне бачення, робототехніку та багато інших.
Яким буває AI?
1. Rule-Based AI (системи на основі правил): цей тип AI використовує правила та логіку, щоб
допомогти машинам робити рішення на основі певних умов. Ці системи використовують
"якщо-то" та "тоді-це" умови, щоб робити висновки та вирішувати проблеми.
2. Machine Learning AI (навчання машин): цей тип AI використовує алгоритми та моделі, щоб
навчити машину розпізнавати певні патерни та здібності. Ці системи використовують велику
кількість даних для навчання машини та поліпшення її результатів.
3. Neural Network AI (нейронні мережі): цей тип AI базується на послідовних з'єднаннях між
багатьма "нейронами" (компонентами, які допомагають машинам розпізнавати патерни та
здібності). Ці системи використовуються для багатьох задач, таких як розпізнавання мови та
зображень.
4. Natural Language Processing AI (обработка природньої мови): цей тип AI допомагає машинам
розуміти та взаємодіяти з людьми за допомогою природної мови. Ці системи
використовуються для розпізнавання мови та тексту, перекладу між мовами, та для
створення ботів та інших систем, які можуть взаємодіяти з людьми.
Rule-based AI
AI використовує
правила та логіку, щоб
допомогти машинам
робити рішення на
основі певних умов. Ці
системи
використовують "якщо-
то" та "тоді-це" умови,
щоб робити висновки
та вирішувати
проблеми.
Machine Learning AI
AI використовує алгоритми та
моделі, щоб навчити машину
розпізнавати певні патерни та
здібності. Ці системи
використовують велику кількість
даних для навчання машини та
поліпшення її результатів.
Neural Network AI
AI базується на послідовних
з'єднаннях між багатьма
"нейронами" (компонентами, які
допомагають машинам
розпізнавати патерни та здібності).
Ці системи використовуються для
багатьох задач, таких як
розпізнавання мови та зображень.
Базові типи нейронних мереж
1. Perceptron, FeedForward - для прогнозування або класифікації простих даних
2. Згорткові мережі, CNN - використовуються для багатьох задач обробки зображень, таких як
класифікація зображень, виявлення об'єктів, визначення контексту та багато іншого.
3. Рекурентні мережі, RNN - використовуються для багатьох завдань, пов'язаних з обробкою
мови, таких як розпізнавання мови, машинний переклад, генерація тексту, визначення
настрою та багато іншого. Вони також використовуються в обробці сигналів, аналізі даних
часових рядів, в області фінансів, медицини та інших областях.
4. LSTM або Long Short-Term Memory (довготривала пам'ять короткочасної пам'яті) - це
спеціальний тип рекурентної нейронної мережі (RNN), яка здатна зберігати довготривалі
залежності між послідовними даними, а також уникнути проблеми зниклих градієнтів, що
виникають при тренуванні класичної RNN.
5. LLM - це велика нейронна мережа, навчена на великій кількості текстових даних, зокрема з
Інтернету. Ці дані використовуються для тренування LLM, що дозволяє йому розуміти зв'язки
між словами, реченнями та контекстом тексту.
FeedForwardNN
DeepNN
використовуються для класифікації
даних, прогнозування часових
рядів, оцінки ризику та інших
фінансових завдань.
Глибокі нейронні мережі (Deep
Neural Networks) - це тип нейронних
мереж, що складається з багатьох
шарів нейронів, що дозволяє
моделювати більш складні
залежності в даних. Вони можуть
бути використані для
прогнозування цін на акції,
класифікації ризику та інших
фінансових завдань.
NN проти DeepNN
CNN
Основною причиною успіху CNN є їх
здатність автоматично виділяти
важливі ознаки зображень, які
можуть бути використані для
класифікації та виявлення об'єктів.
Це досягається за допомогою
згорткових та пулінгових шарів, які
можуть виявляти структурні
особливості зображення на різних
рівнях абстракції, починаючи від
простих ознак, таких як краї та
кольори, до більш складних форм
та структур.
RNN
Основна перевага RNN полягає в тому, що
вони можуть враховувати контекст та зв'язки
між різними елементами послідовності. Це
досягається за допомогою внутрішнього
стану, який зберігає інформацію про попередні
елементи послідовності та передає цю
інформацію до наступного елемента. Таким
чином, RNN можуть враховувати контекст при
обробці кожного елемента послідовності та
використовувати цю інформацію для
здійснення передбачень та класифікації.
Наприклад, у машинному перекладі, RNN може
враховувати контекст слова або фрази та
використовувати цю інформацію для кращого
перекладу. У визначенні настрою, RNN може
враховувати контекст попередніх речень та
використовувати цю інформацію для кращої
оцінки настрою.
LSTM
Основні переваги LSTM полягають у
тому, що вони можуть зберігати
інформацію про попередні стани в
багатьох шарах, а також вони
мають механізми, що дозволяють
уникнути проблеми зниклих
градієнтів. За допомогою LSTM
можна здійснювати передбачення
на основі складних послідовностей
даних з високою точністю, зокрема
в області машинного перекладу, де
вони дозволяють враховувати
граматичні правила мови та
контекст перекладу.
LLM
Large Language Models (LLM)
використовують комбінацію
Tokenizer та Transformer для
досягнення найкращих результатів
у завданнях обробки природньої
мови, таких як генерація тексту,
класифікація, переклад та інші.
Кожен токен вхідного тексту
пропускається через Transformer, і
модель збирає всю інформацію, що
потрібна для генерації відповіді.
LLM використовуються в багатьох
застосунках, таких як автоматичне
завершення тексту, генерація тексту
та розпізнавання мови. https://docs.google.com/spreadsheets/d/1O5KVQW1Hx5ZAkcg8AIRjbQLQzx2wVaLl0SqUu-ir9Fs/edit#gid=1158069878
Tokenizer
Tokenizer - це процес перетворення
тексту на послідовність токенів, які
можуть бути подані у вигляді
числового вектора та подані на вхід
моделі. Токенізація може залежати
від конкретної задачі та мови, але в
загальному, tokenizer дозволяє
моделі розуміти текст та
виконувати операції з ним.
Токенізація тексту
Transformer
Transformer - це тип нейронної
мережі, який був розроблений
спеціально для роботи з
послідовними даними, такими як
текст. Модель Transformer
складається з багатьох шарів,
кожен з яких оброблює вхідні дані
та передає результати до
наступного шару. Крім того,
Transformer має механізми уваги,
які дозволяють моделі звертати
увагу на різні частини вхідного
тексту залежно від контексту.
Навчання LLM
1. Збір та підготовка даних: це перший і найбільш важливий етап. Щоб побудувати LLM, потрібна велика
кількість текстових даних. Дані потрібно очистити та підготувати, щоб зробити їх придатними для
навчання моделі.
2. Побудова моделі: після підготовки даних можна побудувати модель LLM. Зазвичай використовуються
глибокі нейронні мережі з архітектурою Transformer. Модель потрібно налаштувати та оптимізувати для
кращої продуктивності.
3. Навчання моделі: після побудови моделі потрібно навчити її. Навчання моделі включає в себе
тренування моделі на підготовлених даних. Під час навчання модель поступово вдосконалюється та
здатна краще розуміти текст.
4. Валідація та налаштування гіперпараметрів: для підтвердження ефективності моделі та забезпечення її
точності, потрібно перевірити її на нових даних, які не використовувались під час навчання. Також
потрібно налаштувати гіперпараметри моделі, щоб забезпечити її оптимальну продуктивність.
5. Інференція: після навчання модель готова для використання. Інференція - це процес використання
моделі для генерації нового тексту на основі вхідних даних.
ChatGPT-3.5
Загалом для навчання GPT-3.5
використовувалися значні ресурси,
зокрема великі кластери серверів з
багатошаровими графічними
процесорами (GPU) та технології
паралельного обчислення, такі як
TensorFlow та PyTorch. Було використано
різноманітні джерела даних, включаючи
інтернет-корпуси текстів, такі як Common
Crawl та Wikipedia, а також соціальні
мережі та форуми.
Загальна кількість даних, використаних
для навчання GPT-3.5, оцінюється у
десятки терабайтів. Навчання такої моделі
вимагає значних ресурсів, тому її
навчання зазвичай виконується на
потужних обчислювальних кластерах з
великою кількістю процесорів та GPU.
В технічному звіті GPT-4 не вказано розмір моделі, посилаючись на «конкурентне
середовище і наслідки для безпеки великомасштабних моделей». The Verge
цитував плітки, що ніби-то GPT-4 суттєво збільшить кількість параметрів з 175
мільярдів в GPT-3 до 100 трильйонів, які генеральний директор OpenAI Сем
Альтман назвав «повною маячнею»
(Generative Pre-trained Transformer )
Bert
сімейство мовних моделей, представлені в 2018 році
дослідниками Google на базі трансформерів, попередньо навчена
на великому масиві даних англійською мовою за допомогою
самоконтролю. Це означає, що вона була попередньо навчена
лише на необроблених текстах, без людей, які будь-яким чином
позначали їх (саме тому він може використовувати багато
загальнодоступних даних) з автоматичним процесом для
створення вхідних даних і міток із цих текстів. Точніше, це було
попередньо підготовлено з двома цілями:
Моделювання замаскованої мови (MLM): беручи речення, модель
випадковим чином маскує 15% слів у вхідних даних, потім
запускає все замасковане речення через модель і має
передбачити замасковані слова. Це відрізняється від
традиційних рекурентних нейронних мереж (RNN), які зазвичай
бачать слова одне за одним, або від авторегресійних моделей,
таких як GPT, які внутрішньо маскують майбутні токени. Це
дозволяє моделі вивчати двонаправлене представлення речення.
Прогноз наступного речення (NSP): моделі об’єднують два
замасковані речення як вхідні дані під час попереднього
навчання. Іноді вони відповідають реченням, які були поруч в
оригінальному тексті, іноді ні. Потім модель повинна
передбачити, чи слідували два речення одне за одним чи ні.
Bloom
це велика мовна модель на основі
трансформерів. Вона була створена понад
1000 дослідниками AI, щоб надати
безкоштовну велику мовну модель для всіх,
хто хоче спробувати. За період з березня по
липень 2022 року його було навчено
приблизно на 366 мільярдах токенів і
вважається альтернативою GPT-3 OpenAI із
його 176 мільярдами параметрів. BLOOM
використовує архітектуру моделі
трансформера лише для декодера,
модифіковану з Megatron-LM GPT-2.
BLOOM навчався з використанням даних 46
природних мов і 13 мов програмування.
Загалом 1,6 терабайт попередньо обробленого
тексту було перетворено на 350 мільярдів
унікальних токенів як навчальні набори даних
BLOOM.
Як використати ChatGPT?
1. Відповіді на запитання: ChatGPT може відповісти на запитання з різних областей
знань, від історії до науки.
2. Генерація тексту: він може генерувати тексти на певну тему або по заданому тексту.
3. Зрозуміти та сформулювати запитання: ChatGPT може розуміти запитання, які до
нього звертаються, та сформулювати зрозумілу відповідь.
4. Складання тексту: він може допомогти у складанні текстів на різні теми, які можуть
використовуватися для різних цілей.
5. Переклад: ChatGPT може перекладати тексти з однієї мови на іншу.
6. Допомога в навчанні: він може допомогти учням та студентам у навчанні, надаючи
різноманітну інформацію та роз'яснення на певну тему.
7. Розважання: ChatGPT може допомогти відповісти на різні запитання та розважати
користувачів, використовуючи гумор та інші елементи.
8. Консультування: він може надати користувачам консультації з різних питань, від
здоров'я до бізнесу.
Як бізнес може використати LLM?
1. Класифікація та аналіз текстів: LLM може бути використаний для аналізу великих обсягів текстової
інформації, такої як соціальні медіа, відгуки клієнтів та інше. Наприклад, LLM може бути використаний
для автоматичної класифікації відгуків клієнтів за певними категоріями або для аналізу настрою
відгуків.
2. Генерація контенту: LLM може бути використаний для генерації тексту для різних потреб, включаючи
написання статей, бізнес-звітів, описів продуктів та послуг, автоматичне створення оголошень та інше.
3. Віртуальні асистенти та чат-боти: LLM може бути використаний для створення віртуальних асистентів
та чат-ботів, які можуть відповідати на запитання та допомагати клієнтам з різними завданнями.
4. Автоматичний переклад: LLM може бути використаний для автоматичного перекладу між різними
мовами, що може бути корисним для міжнародних компаній та бізнесів, які мають клієнтів або
партнерів з різних країн.
5. Автоматизація рутинних завдань: LLM може бути використаний для автоматизації рутинних завдань,
таких як обробка замовлень, відповідь на запитання клієнтів та інше. Це може допомогти збільшити
продуктивність та ефективність роботи співробітників компанії.
ще…
1. Пошук та аналіз інформації: LLM може бути використаний для пошуку та аналізу інформації
2. Розумні рекомендації: LLM може бути використаний для створення персоналізованих
рекомендацій для клієнтів. Наприклад, на основі аналізу поведінки клієнтів на сайті або
інших даних, LLM може зробити рекомендації щодо товарів, послуг або інформації, яка може
бути цікава клієнту.
3. Аналіз текстових документів: LLM може бути використаний для аналізу текстових документів,
таких як контракти, звіти, документи з підтримки клієнтів та інші. За допомогою LLM можна
швидко та ефективно знайти ключові слова, теми, виявити проблеми та ризики.
4. Оптимізація реклами: LLM може бути використаний для підвищення ефективності реклами.
На основі аналізу даних про поведінку користувачів та відгуків на рекламу, LLM може
допомогти виявити найбільш ефективні способи реклами та підвищити конверсію.
5. Моніторинг та прогнозування трендів: LLM може бути використаний для моніторингу та
прогнозування трендів на ринку. За допомогою аналізу даних з соціальних мереж, новин та
інших джерел, LLM може допомогти компанії зрозуміти тенденції та зробити правильні
рішення щодо розвитку бізнесу.
Дякую за увагу!
Святослав Надозірний, 2023

More Related Content

What's hot

Learning sets of rules, Sequential Learning Algorithm,FOIL
Learning sets of rules, Sequential Learning Algorithm,FOILLearning sets of rules, Sequential Learning Algorithm,FOIL
Learning sets of rules, Sequential Learning Algorithm,FOILPavithra Thippanaik
 
Basic Learning Algorithms of ANN
Basic Learning Algorithms of ANNBasic Learning Algorithms of ANN
Basic Learning Algorithms of ANNwaseem khan
 
Usage of regular expressions in nlp
Usage of regular expressions in nlpUsage of regular expressions in nlp
Usage of regular expressions in nlpeSAT Journals
 
Training Neural Networks
Training Neural NetworksTraining Neural Networks
Training Neural NetworksDatabricks
 
Deep Learning for Stock Prediction
Deep Learning for Stock PredictionDeep Learning for Stock Prediction
Deep Learning for Stock PredictionLim Zhi Yuan (Zane)
 
Genetic Algorithm for optimization on IRIS Dataset presentation ppt
Genetic Algorithm for optimization on IRIS Dataset presentation pptGenetic Algorithm for optimization on IRIS Dataset presentation ppt
Genetic Algorithm for optimization on IRIS Dataset presentation pptSunil Rajput
 
Harmony search algorithm
Harmony search algorithmHarmony search algorithm
Harmony search algorithmAhmed Fouad Ali
 
Introduction to Machine Learning, Deep Learning and MXNet
Introduction to Machine Learning, Deep Learning and MXNetIntroduction to Machine Learning, Deep Learning and MXNet
Introduction to Machine Learning, Deep Learning and MXNetAmazon Web Services
 
Unsupervised learning
Unsupervised learningUnsupervised learning
Unsupervised learningamalalhait
 
Analytical learning
Analytical learningAnalytical learning
Analytical learningswapnac12
 
Concept learning and candidate elimination algorithm
Concept learning and candidate elimination algorithmConcept learning and candidate elimination algorithm
Concept learning and candidate elimination algorithmswapnac12
 
Intro to Deep learning - Autoencoders
Intro to Deep learning - Autoencoders Intro to Deep learning - Autoencoders
Intro to Deep learning - Autoencoders Akash Goel
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networksAkash Goel
 
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationArtificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationMohammed Bennamoun
 
Introduction to Artificial Neural Networks
Introduction to Artificial Neural NetworksIntroduction to Artificial Neural Networks
Introduction to Artificial Neural NetworksAdri Jovin
 
Unsupervised learning clustering
Unsupervised learning clusteringUnsupervised learning clustering
Unsupervised learning clusteringArshad Farhad
 
Multi verse optimization
Multi verse optimizationMulti verse optimization
Multi verse optimizationAnuja Joshi
 

What's hot (20)

Learning sets of rules, Sequential Learning Algorithm,FOIL
Learning sets of rules, Sequential Learning Algorithm,FOILLearning sets of rules, Sequential Learning Algorithm,FOIL
Learning sets of rules, Sequential Learning Algorithm,FOIL
 
Basic Learning Algorithms of ANN
Basic Learning Algorithms of ANNBasic Learning Algorithms of ANN
Basic Learning Algorithms of ANN
 
Usage of regular expressions in nlp
Usage of regular expressions in nlpUsage of regular expressions in nlp
Usage of regular expressions in nlp
 
Training Neural Networks
Training Neural NetworksTraining Neural Networks
Training Neural Networks
 
Deep Learning for Stock Prediction
Deep Learning for Stock PredictionDeep Learning for Stock Prediction
Deep Learning for Stock Prediction
 
Neural Networks
Neural NetworksNeural Networks
Neural Networks
 
Genetic Algorithm for optimization on IRIS Dataset presentation ppt
Genetic Algorithm for optimization on IRIS Dataset presentation pptGenetic Algorithm for optimization on IRIS Dataset presentation ppt
Genetic Algorithm for optimization on IRIS Dataset presentation ppt
 
Lstm
LstmLstm
Lstm
 
Harmony search algorithm
Harmony search algorithmHarmony search algorithm
Harmony search algorithm
 
Introduction to Machine Learning, Deep Learning and MXNet
Introduction to Machine Learning, Deep Learning and MXNetIntroduction to Machine Learning, Deep Learning and MXNet
Introduction to Machine Learning, Deep Learning and MXNet
 
Unsupervised learning
Unsupervised learningUnsupervised learning
Unsupervised learning
 
Analytical learning
Analytical learningAnalytical learning
Analytical learning
 
Concept learning and candidate elimination algorithm
Concept learning and candidate elimination algorithmConcept learning and candidate elimination algorithm
Concept learning and candidate elimination algorithm
 
Neural
NeuralNeural
Neural
 
Intro to Deep learning - Autoencoders
Intro to Deep learning - Autoencoders Intro to Deep learning - Autoencoders
Intro to Deep learning - Autoencoders
 
backpropagation in neural networks
backpropagation in neural networksbackpropagation in neural networks
backpropagation in neural networks
 
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & BackpropagationArtificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
Artificial Neural Networks Lect5: Multi-Layer Perceptron & Backpropagation
 
Introduction to Artificial Neural Networks
Introduction to Artificial Neural NetworksIntroduction to Artificial Neural Networks
Introduction to Artificial Neural Networks
 
Unsupervised learning clustering
Unsupervised learning clusteringUnsupervised learning clustering
Unsupervised learning clustering
 
Multi verse optimization
Multi verse optimizationMulti verse optimization
Multi verse optimization
 

Similar to Застосування AI-1.pdf

опорні схеми
опорні схемиопорні схеми
опорні схемиIrina Tabanets
 
Computers and Computing Works lecture №3
Computers and Computing Works lecture №3Computers and Computing Works lecture №3
Computers and Computing Works lecture №3Lesia Sobolevska
 
презентация Microsoft power point
презентация Microsoft power pointпрезентация Microsoft power point
презентация Microsoft power pointKristnaAlieva
 
презентация Microsoft power point
презентация Microsoft power pointпрезентация Microsoft power point
презентация Microsoft power pointKristnaAlieva
 
презентація програми скор.Ppt
презентація програми скор.Pptпрезентація програми скор.Ppt
презентація програми скор.PptMarina Marina
 
Нова програма з інформатики 5-9
Нова програма з інформатики 5-9Нова програма з інформатики 5-9
Нова програма з інформатики 5-9Marina Marina
 
Question mag 050103
Question mag 050103Question mag 050103
Question mag 050103Tani Ta
 
скретч 3 клас
скретч 3 класскретч 3 клас
скретч 3 класTamara Emec
 
Ai №6. Експертні системи.
Ai №6. Експертні системи.Ai №6. Експертні системи.
Ai №6. Експертні системи.Lesia Sobolevska
 
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...e-ranok e-ranok
 
комп’ютерні програми і мови програмування 2
комп’ютерні програми і мови програмування 2комп’ютерні програми і мови програмування 2
комп’ютерні програми і мови програмування 2Захарова Олена
 
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?» Online Q...
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?»  Online Q...ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?»  Online Q...
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?» Online Q...GoQA
 

Similar to Застосування AI-1.pdf (20)

опорні схеми
опорні схемиопорні схеми
опорні схеми
 
урок 6
урок 6урок 6
урок 6
 
Computers and Computing Works lecture №3
Computers and Computing Works lecture №3Computers and Computing Works lecture №3
Computers and Computing Works lecture №3
 
Урок 2
Урок 2Урок 2
Урок 2
 
SPR
SPRSPR
SPR
 
презентация Microsoft power point
презентация Microsoft power pointпрезентация Microsoft power point
презентация Microsoft power point
 
презентация Microsoft power point
презентация Microsoft power pointпрезентация Microsoft power point
презентация Microsoft power point
 
презентація програми скор.Ppt
презентація програми скор.Pptпрезентація програми скор.Ppt
презентація програми скор.Ppt
 
Нова програма з інформатики 5-9
Нова програма з інформатики 5-9Нова програма з інформатики 5-9
Нова програма з інформатики 5-9
 
Inf78
Inf78Inf78
Inf78
 
Question mag 050103
Question mag 050103Question mag 050103
Question mag 050103
 
скретч 3 клас
скретч 3 класскретч 3 клас
скретч 3 клас
 
Ai №6. Експертні системи.
Ai №6. Експертні системи.Ai №6. Експертні системи.
Ai №6. Експертні системи.
 
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...
Основи алгоритмізації та програмування для старшокласників, турніри та олімпі...
 
Navchalna programa
Navchalna programaNavchalna programa
Navchalna programa
 
комп’ютерні програми і мови програмування 2
комп’ютерні програми і мови програмування 2комп’ютерні програми і мови програмування 2
комп’ютерні програми і мови програмування 2
 
175
175175
175
 
Урок №5 8 клас
Урок №5 8 класУрок №5 8 клас
Урок №5 8 клас
 
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?» Online Q...
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?»  Online Q...ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?»  Online Q...
ОЛЕКСАНДР ХОТЕМСЬКИЙ «ChatGPT: який вплив буде мати на тестування?» Online Q...
 
01 02-кодування інформації
01 02-кодування інформації01 02-кодування інформації
01 02-кодування інформації
 

Застосування AI-1.pdf

  • 1. Artificial Intelligence Штучний інтелект в бізнесі і проектах Святослав Надозірний, 2023
  • 2. Що таке AI? Штучний інтелект базується на ідеї, що машини можна запрограмувати для моделювання та повторення людського інтелекту, наприклад здатності розпізнавати шаблони, розуміти природну мову, міркувати, вчитися на досвіді та приймати рішення на основі даних. Технології AI включають машинне навчання, глибоке навчання, обробку природної мови, комп’ ютерне бачення, робототехніку та багато інших.
  • 3. Яким буває AI? 1. Rule-Based AI (системи на основі правил): цей тип AI використовує правила та логіку, щоб допомогти машинам робити рішення на основі певних умов. Ці системи використовують "якщо-то" та "тоді-це" умови, щоб робити висновки та вирішувати проблеми. 2. Machine Learning AI (навчання машин): цей тип AI використовує алгоритми та моделі, щоб навчити машину розпізнавати певні патерни та здібності. Ці системи використовують велику кількість даних для навчання машини та поліпшення її результатів. 3. Neural Network AI (нейронні мережі): цей тип AI базується на послідовних з'єднаннях між багатьма "нейронами" (компонентами, які допомагають машинам розпізнавати патерни та здібності). Ці системи використовуються для багатьох задач, таких як розпізнавання мови та зображень. 4. Natural Language Processing AI (обработка природньої мови): цей тип AI допомагає машинам розуміти та взаємодіяти з людьми за допомогою природної мови. Ці системи використовуються для розпізнавання мови та тексту, перекладу між мовами, та для створення ботів та інших систем, які можуть взаємодіяти з людьми.
  • 4. Rule-based AI AI використовує правила та логіку, щоб допомогти машинам робити рішення на основі певних умов. Ці системи використовують "якщо- то" та "тоді-це" умови, щоб робити висновки та вирішувати проблеми.
  • 5. Machine Learning AI AI використовує алгоритми та моделі, щоб навчити машину розпізнавати певні патерни та здібності. Ці системи використовують велику кількість даних для навчання машини та поліпшення її результатів.
  • 6. Neural Network AI AI базується на послідовних з'єднаннях між багатьма "нейронами" (компонентами, які допомагають машинам розпізнавати патерни та здібності). Ці системи використовуються для багатьох задач, таких як розпізнавання мови та зображень.
  • 7. Базові типи нейронних мереж 1. Perceptron, FeedForward - для прогнозування або класифікації простих даних 2. Згорткові мережі, CNN - використовуються для багатьох задач обробки зображень, таких як класифікація зображень, виявлення об'єктів, визначення контексту та багато іншого. 3. Рекурентні мережі, RNN - використовуються для багатьох завдань, пов'язаних з обробкою мови, таких як розпізнавання мови, машинний переклад, генерація тексту, визначення настрою та багато іншого. Вони також використовуються в обробці сигналів, аналізі даних часових рядів, в області фінансів, медицини та інших областях. 4. LSTM або Long Short-Term Memory (довготривала пам'ять короткочасної пам'яті) - це спеціальний тип рекурентної нейронної мережі (RNN), яка здатна зберігати довготривалі залежності між послідовними даними, а також уникнути проблеми зниклих градієнтів, що виникають при тренуванні класичної RNN. 5. LLM - це велика нейронна мережа, навчена на великій кількості текстових даних, зокрема з Інтернету. Ці дані використовуються для тренування LLM, що дозволяє йому розуміти зв'язки між словами, реченнями та контекстом тексту.
  • 8. FeedForwardNN DeepNN використовуються для класифікації даних, прогнозування часових рядів, оцінки ризику та інших фінансових завдань. Глибокі нейронні мережі (Deep Neural Networks) - це тип нейронних мереж, що складається з багатьох шарів нейронів, що дозволяє моделювати більш складні залежності в даних. Вони можуть бути використані для прогнозування цін на акції, класифікації ризику та інших фінансових завдань.
  • 10. CNN Основною причиною успіху CNN є їх здатність автоматично виділяти важливі ознаки зображень, які можуть бути використані для класифікації та виявлення об'єктів. Це досягається за допомогою згорткових та пулінгових шарів, які можуть виявляти структурні особливості зображення на різних рівнях абстракції, починаючи від простих ознак, таких як краї та кольори, до більш складних форм та структур.
  • 11. RNN Основна перевага RNN полягає в тому, що вони можуть враховувати контекст та зв'язки між різними елементами послідовності. Це досягається за допомогою внутрішнього стану, який зберігає інформацію про попередні елементи послідовності та передає цю інформацію до наступного елемента. Таким чином, RNN можуть враховувати контекст при обробці кожного елемента послідовності та використовувати цю інформацію для здійснення передбачень та класифікації. Наприклад, у машинному перекладі, RNN може враховувати контекст слова або фрази та використовувати цю інформацію для кращого перекладу. У визначенні настрою, RNN може враховувати контекст попередніх речень та використовувати цю інформацію для кращої оцінки настрою.
  • 12. LSTM Основні переваги LSTM полягають у тому, що вони можуть зберігати інформацію про попередні стани в багатьох шарах, а також вони мають механізми, що дозволяють уникнути проблеми зниклих градієнтів. За допомогою LSTM можна здійснювати передбачення на основі складних послідовностей даних з високою точністю, зокрема в області машинного перекладу, де вони дозволяють враховувати граматичні правила мови та контекст перекладу.
  • 13. LLM Large Language Models (LLM) використовують комбінацію Tokenizer та Transformer для досягнення найкращих результатів у завданнях обробки природньої мови, таких як генерація тексту, класифікація, переклад та інші. Кожен токен вхідного тексту пропускається через Transformer, і модель збирає всю інформацію, що потрібна для генерації відповіді. LLM використовуються в багатьох застосунках, таких як автоматичне завершення тексту, генерація тексту та розпізнавання мови. https://docs.google.com/spreadsheets/d/1O5KVQW1Hx5ZAkcg8AIRjbQLQzx2wVaLl0SqUu-ir9Fs/edit#gid=1158069878
  • 14. Tokenizer Tokenizer - це процес перетворення тексту на послідовність токенів, які можуть бути подані у вигляді числового вектора та подані на вхід моделі. Токенізація може залежати від конкретної задачі та мови, але в загальному, tokenizer дозволяє моделі розуміти текст та виконувати операції з ним.
  • 16. Transformer Transformer - це тип нейронної мережі, який був розроблений спеціально для роботи з послідовними даними, такими як текст. Модель Transformer складається з багатьох шарів, кожен з яких оброблює вхідні дані та передає результати до наступного шару. Крім того, Transformer має механізми уваги, які дозволяють моделі звертати увагу на різні частини вхідного тексту залежно від контексту.
  • 17. Навчання LLM 1. Збір та підготовка даних: це перший і найбільш важливий етап. Щоб побудувати LLM, потрібна велика кількість текстових даних. Дані потрібно очистити та підготувати, щоб зробити їх придатними для навчання моделі. 2. Побудова моделі: після підготовки даних можна побудувати модель LLM. Зазвичай використовуються глибокі нейронні мережі з архітектурою Transformer. Модель потрібно налаштувати та оптимізувати для кращої продуктивності. 3. Навчання моделі: після побудови моделі потрібно навчити її. Навчання моделі включає в себе тренування моделі на підготовлених даних. Під час навчання модель поступово вдосконалюється та здатна краще розуміти текст. 4. Валідація та налаштування гіперпараметрів: для підтвердження ефективності моделі та забезпечення її точності, потрібно перевірити її на нових даних, які не використовувались під час навчання. Також потрібно налаштувати гіперпараметри моделі, щоб забезпечити її оптимальну продуктивність. 5. Інференція: після навчання модель готова для використання. Інференція - це процес використання моделі для генерації нового тексту на основі вхідних даних.
  • 18. ChatGPT-3.5 Загалом для навчання GPT-3.5 використовувалися значні ресурси, зокрема великі кластери серверів з багатошаровими графічними процесорами (GPU) та технології паралельного обчислення, такі як TensorFlow та PyTorch. Було використано різноманітні джерела даних, включаючи інтернет-корпуси текстів, такі як Common Crawl та Wikipedia, а також соціальні мережі та форуми. Загальна кількість даних, використаних для навчання GPT-3.5, оцінюється у десятки терабайтів. Навчання такої моделі вимагає значних ресурсів, тому її навчання зазвичай виконується на потужних обчислювальних кластерах з великою кількістю процесорів та GPU. В технічному звіті GPT-4 не вказано розмір моделі, посилаючись на «конкурентне середовище і наслідки для безпеки великомасштабних моделей». The Verge цитував плітки, що ніби-то GPT-4 суттєво збільшить кількість параметрів з 175 мільярдів в GPT-3 до 100 трильйонів, які генеральний директор OpenAI Сем Альтман назвав «повною маячнею» (Generative Pre-trained Transformer )
  • 19. Bert сімейство мовних моделей, представлені в 2018 році дослідниками Google на базі трансформерів, попередньо навчена на великому масиві даних англійською мовою за допомогою самоконтролю. Це означає, що вона була попередньо навчена лише на необроблених текстах, без людей, які будь-яким чином позначали їх (саме тому він може використовувати багато загальнодоступних даних) з автоматичним процесом для створення вхідних даних і міток із цих текстів. Точніше, це було попередньо підготовлено з двома цілями: Моделювання замаскованої мови (MLM): беручи речення, модель випадковим чином маскує 15% слів у вхідних даних, потім запускає все замасковане речення через модель і має передбачити замасковані слова. Це відрізняється від традиційних рекурентних нейронних мереж (RNN), які зазвичай бачать слова одне за одним, або від авторегресійних моделей, таких як GPT, які внутрішньо маскують майбутні токени. Це дозволяє моделі вивчати двонаправлене представлення речення. Прогноз наступного речення (NSP): моделі об’єднують два замасковані речення як вхідні дані під час попереднього навчання. Іноді вони відповідають реченням, які були поруч в оригінальному тексті, іноді ні. Потім модель повинна передбачити, чи слідували два речення одне за одним чи ні.
  • 20. Bloom це велика мовна модель на основі трансформерів. Вона була створена понад 1000 дослідниками AI, щоб надати безкоштовну велику мовну модель для всіх, хто хоче спробувати. За період з березня по липень 2022 року його було навчено приблизно на 366 мільярдах токенів і вважається альтернативою GPT-3 OpenAI із його 176 мільярдами параметрів. BLOOM використовує архітектуру моделі трансформера лише для декодера, модифіковану з Megatron-LM GPT-2. BLOOM навчався з використанням даних 46 природних мов і 13 мов програмування. Загалом 1,6 терабайт попередньо обробленого тексту було перетворено на 350 мільярдів унікальних токенів як навчальні набори даних BLOOM.
  • 21. Як використати ChatGPT? 1. Відповіді на запитання: ChatGPT може відповісти на запитання з різних областей знань, від історії до науки. 2. Генерація тексту: він може генерувати тексти на певну тему або по заданому тексту. 3. Зрозуміти та сформулювати запитання: ChatGPT може розуміти запитання, які до нього звертаються, та сформулювати зрозумілу відповідь. 4. Складання тексту: він може допомогти у складанні текстів на різні теми, які можуть використовуватися для різних цілей. 5. Переклад: ChatGPT може перекладати тексти з однієї мови на іншу. 6. Допомога в навчанні: він може допомогти учням та студентам у навчанні, надаючи різноманітну інформацію та роз'яснення на певну тему. 7. Розважання: ChatGPT може допомогти відповісти на різні запитання та розважати користувачів, використовуючи гумор та інші елементи. 8. Консультування: він може надати користувачам консультації з різних питань, від здоров'я до бізнесу.
  • 22. Як бізнес може використати LLM? 1. Класифікація та аналіз текстів: LLM може бути використаний для аналізу великих обсягів текстової інформації, такої як соціальні медіа, відгуки клієнтів та інше. Наприклад, LLM може бути використаний для автоматичної класифікації відгуків клієнтів за певними категоріями або для аналізу настрою відгуків. 2. Генерація контенту: LLM може бути використаний для генерації тексту для різних потреб, включаючи написання статей, бізнес-звітів, описів продуктів та послуг, автоматичне створення оголошень та інше. 3. Віртуальні асистенти та чат-боти: LLM може бути використаний для створення віртуальних асистентів та чат-ботів, які можуть відповідати на запитання та допомагати клієнтам з різними завданнями. 4. Автоматичний переклад: LLM може бути використаний для автоматичного перекладу між різними мовами, що може бути корисним для міжнародних компаній та бізнесів, які мають клієнтів або партнерів з різних країн. 5. Автоматизація рутинних завдань: LLM може бути використаний для автоматизації рутинних завдань, таких як обробка замовлень, відповідь на запитання клієнтів та інше. Це може допомогти збільшити продуктивність та ефективність роботи співробітників компанії.
  • 23. ще… 1. Пошук та аналіз інформації: LLM може бути використаний для пошуку та аналізу інформації 2. Розумні рекомендації: LLM може бути використаний для створення персоналізованих рекомендацій для клієнтів. Наприклад, на основі аналізу поведінки клієнтів на сайті або інших даних, LLM може зробити рекомендації щодо товарів, послуг або інформації, яка може бути цікава клієнту. 3. Аналіз текстових документів: LLM може бути використаний для аналізу текстових документів, таких як контракти, звіти, документи з підтримки клієнтів та інші. За допомогою LLM можна швидко та ефективно знайти ключові слова, теми, виявити проблеми та ризики. 4. Оптимізація реклами: LLM може бути використаний для підвищення ефективності реклами. На основі аналізу даних про поведінку користувачів та відгуків на рекламу, LLM може допомогти виявити найбільш ефективні способи реклами та підвищити конверсію. 5. Моніторинг та прогнозування трендів: LLM може бути використаний для моніторингу та прогнозування трендів на ринку. За допомогою аналізу даних з соціальних мереж, новин та інших джерел, LLM може допомогти компанії зрозуміти тенденції та зробити правильні рішення щодо розвитку бізнесу.