SlideShare a Scribd company logo
Modern Neural Net
Architectures /
Year 2019 version
Григорий Сапунов (CTO, Intento)
План доклада
• Recap: основные типы нейросетей
• Self-Attention и Трансформер
• Трансформер
• BERT, XLNet, GPT-2
• GAN
• Modern Sequence Learning
• Другие архитектурные улучшения
• Процедуры обучения
Recap: “классические” типы нейросетей
FNN: Feedforward Neural Network
Multilayer Perceptron (MLP) — классика FFN.
Хорошо работают для классификации, но
есть трудности:
● много параметров
● градиенты затухают в глубокой сети → трудно обучать
ResNet: Residual Network
Помогает сохранить градиенты в глубоких сетях.
СNN: Convolutional Neural Network
FNN сеть специального вида для работы с данными, имеющими
локальную структуру
RNN: Recurrent Neural Network
RNN имеют циклические связи в структуре сети, подходит для
работы с последовательностями.
LSTM/GRU: более хитрые RNN
http://kvitajakub.github.io/2016/04/14/rnn-diagrams
Позволяет выучивать более “длинные” закономерности, помогает
бороться с затуханием или взрывом градиентов.
http://karpathy.github.io/2015/05/21/rnn-effectiveness/
Последовательность как first-class citizen.
Sequence to Sequence Learning (seq2seq)
https://www.quora.com/What-is-an-Encoder-Decoder-in-Deep-Learning
Encoder-Decoder architecture
Классика работы с последовательностями разной длины.
Self-attention & Transformer
Проблемы архитектуры Encoder-Decoder
Энкодер кодирует всю входную последовательность в вектор
фиксированной длины (контекст) независимо от её размера.
Достаточен ли размер этого вектора? Одинаково ли хорош этот
вектор для каждого генерируемого выходного элемента?
Механизм внимания
Механизм внимания позволяет декодеру учитывать разные
элементы входной последовательности по-разному при генерации
каждого элемента выходной последовательности.
Мы даём модели возможность сформировать свой контекст для
каждой позиции.
Механизм внимания (soft attention)
http://en.diveintodeeplearning.org/chapter_natural-language-processing/attention.html
Внимание можно визуализировать
Neural Machine Translation by Jointly Learning to Align and Translate
https://arxiv.org/abs/1409.0473
Внимание можно визуализировать
Teaching Machines to Read and Comprehend, https://arxiv.org/abs/1506.03340
Self-attention (Intra-Attention)
Каждый элемент последовательности “принимает во внимание”
остальные элементы этой же последовательности.
All you need is...
https://arxiv.org/abs/1706.03762
Трансформер
Энкодер-декодер специального вида,
построенный на блоках attention без
использования RNN/CNN.
Основной компонент — multi-head self-attention.
Быстрые матричные операции, хорошее качество
на различных задачах (в первую очередь
машинный перевод).
Multi-head self-attention
По сути, просто несколько слоёв внимания,
производящие различные линейные
преобразования над входными данными и
составленные вместе.
Энкодер-декодер
http://jalammar.github.io/illustrated-transformer/
Вход
http://jalammar.github.io/illustrated-transformer/
Энкодер
http://jalammar.github.io/illustrated-transformer/
Более правдивый энкодер
http://jalammar.github.io/illustrated-transformer/
Более правдивый энкодер-декодер
http://jalammar.github.io/illustrated-transformer/
Пример визуализации (2 головы)
Энкодер-декодер в работе
http://jalammar.github.io/illustrated-transformer/
Transformer-XL
https://arxiv.org/abs/1901.02860
Модификация LM на обычном трансформере (декодере)
Добавляется возможность посмотреть на репрезентации
предыдущего сегмента → можно выучивать более длинные
зависимости.
Другие виды трансформеров
● Image Transformer
● Music Transformer
● Universal Transformer
● Transformer-XL
● Sparse Transformer
● ...
BERT
Bidirectional Encoder Representations from Transformers
Использует только энкодер трансформера.
Предобучается на больших массивах текстов, учитывая
для каждой позиции контекст слева и справа.
Можно взять предобученный BERT (представления из
него) и дообучить его под свою задачу (часто на небольшом
датасете).
Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing,
https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
BERT vs. GPT vs. ELMo
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,
https://arxiv.org/abs/1810.04805
BERT: masked language model
https://jalammar.github.io/illustrated-bert/
BERT: next sentence prediction (deprecated)
https://jalammar.github.io/illustrated-bert/
BERT: using fine-tuning approach
https://arxiv.org/abs/1810.04805
XLNet: Permutation Language Modeling
BERT — это, по сути, denoising autoencoder.
Он не учитывает взаимозависимость
маскируемых слов.
Традиционные LM не видят правый
контекст.
Как устранить проблемы этих методов?
Берём в качестве левого контекста
различные перестановки слов во всём
предложении.
XLNet = Transformer-XL + PLM
XLNet: Generalized Autoregressive Pretraining for Language Understanding
https://arxiv.org/abs/1906.08237
RoBERTa: A Robustly Optimized BERT
https://arxiv.org/abs/1907.11692
BERT был “недотюнен”.
Улучшения:
● Взять больше данных, тренировать дольше
● Next sentence prediction лишний
● Более длинные предложения
● Большие батчи
● Динамическое маскирование
Результат: state-of-the-art на 4 из 9 задачах в GLUE.
GPT-2
Языковая модель на декодере трансформера.
Умеет генерить продолжение текста. Настолько хорошо, что
OpenAI отказался её публиковать и устроил мощный PR.
Публикует понемногу, начиная с маленьких моделей.
Разные языковые модели на трансформерах можно попробовать
здесь: https://transformer.huggingface.co/
https://openai.com/blog/better-language-models/
GPT-2
http://jalammar.github.io/illustrated-gpt2/
GPT-2
http://jalammar.github.io/illustrated-gpt2/
GPT-2 / BERT / Transformer-XL
http://jalammar.github.io/illustrated-gpt2/
Language Model Zoo
● ELMo
● ULMFiT
● GPT
● BERT (BioBERT, ClinicalBERT, …)
● ERNIE
● XLNet
● KERMIT
● ERNIE 2.0
● GPT-2
● …
Готовые модели:
• https://github.com/huggingface/pytorch-transformers
• https://github.com/deepmipt/DeepPavlov
Generative Adversarial Networks (GANs)
AE & VAE (not a GAN, but ...)
http://kvfrans.com/variational-autoencoders-explained/
VAE: арифметика в латентном пространстве
https://www.manning.com/books/deep-learning-with-python
Классика для задач сегментации изображений.
U-Net: AE со skip-connections
GAN
https://arxiv.org/abs/1411.5928
https://github.com/hindupuravinash/the-gan-zoo
GAN rapid evolution
https://twitter.com/goodfellow_ian/status/1084973596236144640
Проблемы GAN
Одна из главных проблем — нестабильность процесса обучения.
Много трюков предназначены для решения этого класса проблем:
● Более хитрые loss-функции
● Различные процедуры нормализации и регуляризации
● Модификации процедуры обучения (например, на одну
итерацию обучения дискриминатора выполняем N итераций
обучения генератора)
● Модификации архитектуры нейросети (например, добавление
BatchNorm)
● Пример: “How to Train a GAN? Tips and tricks to make GANs
work”, https://github.com/soumith/ganhacks
DCGAN: deep convolutional GAN
https://arxiv.org/abs/1511.06434
● Генератор и дискриминатор становятся свёрточными
● Используется batch normalization
DCGAN: generated bedrooms
https://arxiv.org/abs/1511.06434
Арифметика в пространстве z
https://arxiv.org/abs/1511.06434
Progressive GAN (aka PGGAN, or ProGAN)
https://arxiv.org/abs/1710.10196
Постепенное наращивание разрешения в процессе обучения.
https://arxiv.org/abs/1710.10196
SGAN: Semi-Supervised GAN
SGAN: Semi-Supervised GAN
Improved Techniques for Training GANs
https://arxiv.org/abs/1606.03498
● Дискриминатор — мультиклассовый классификатор (N классов
объектов + 1 класс для real/fake, а не, как обычно, бинарный
real/fake)
● Здесь ценность не в обученном генераторе, а в обученном
дискриминаторе
● Позволяет обучаться на небольшом числе размеченных
примеров и большом — неразмеченных. GAN, по сути,
используется для задачи, похожей на multi-task learning.
CGAN: Conditional GAN
Conditional Generative Adversarial Nets
https://arxiv.org/abs/1411.1784
● Хочется иметь генератор, способный генерировать объекты
заданных классов
pix2pix: CGAN для целых изображений
Image-to-Image Translation with Conditional Adversarial Networks
https://arxiv.org/abs/1611.07004
pix2pix: CGAN для целых изображений
Image-to-Image Translation with Conditional Adversarial Networks
https://arxiv.org/abs/1611.07004
● Зачем GAN? Почему не свести к задаче supervised learning?
● Есть трудности с формулированием loss function, особенно под
специальные варианты трансляции.
● GAN позволяет использовать универсальный фреймворк без
“hand-engineering our loss functions”.
● GAN — это и есть обучаемая loss функция!
● Одна нейросеть используется в качестве loss функции для
обучения другой нейросети.
pix2pix: выбор loss-функции
Image-to-Image Translation with Conditional Adversarial Networks
https://arxiv.org/abs/1611.07004
pix2pix: CGAN для целых изображений
Image-to-Image Translation with Conditional Adversarial Networks
https://arxiv.org/abs/1611.07004
● Проблема: нужны пары изображений.
● В некоторых случаях пары можно получить или сгенерировать
(например, цветное→ч/б), но в других случаях это сделать
трудно или нельзя.
● Как перейти к задаче unpaired domain translation?
CycleGAN: Cycle-Consistent GAN
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
https://arxiv.org/abs/1703.10593
Как перейти к задаче unpaired domain translation?
CycleGAN: Cycle-Consistent GAN
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
https://arxiv.org/abs/1703.10593
Как перейти к задаче unpaired domain translation?
→ Хитрые функции потерь
CycleGAN: Cycle-Consistent GAN
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
https://arxiv.org/abs/1703.10593
Как перейти к задаче unpaired domain translation?
→ Хитрые функции потерь:
● Cycle-consistent loss: обеспечивает F(G(X)) ≈ X и наоборот.
● Identity loss: помогает сохранить цвет исходных
изображений.
● Adversarial loss: обеспечивает реалистичность картинки.
CycleGAN: Cycle-Consistent GAN
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
https://arxiv.org/abs/1703.10593
Но...
https://arxiv.org/abs/1712.02950
Но...
https://arxiv.org/abs/1712.02950
Будьте осторожны со своими желаниями!
Cycle-consistent loss делает ровно то, что его попросили.
StackGAN: Мультимодальный GAN
https://arxiv.org/abs/1612.03242
StackGAN: Мультимодальный GAN
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks
https://arxiv.org/abs/1612.03242
SA-GAN: Self-attention GAN
При генерации изображений хочется учитывать дальние
зависимости (long-range dependencies), в то время как CNN
оперируют в основном локальными признаками.
В случае CNN локальная
структура может быть
непротиворечива, но
глобальная —
бессмысленна.
SA-GAN: Self-attention GAN
Self-Attention Generative Adversarial Networks
https://arxiv.org/abs/1805.08318
Специальный self-attention модуль + spectral normalization
SA-GAN: Пример применения
https://github.com/jantic/DeOldify
BigGAN: прогресс в качестве генерации
Large Scale GAN Training for High Fidelity Natural Image Synthesis,
https://arxiv.org/abs/1809.11096
BigGAN: особенности
Large Scale GAN Training for High Fidelity Natural Image Synthesis,
https://arxiv.org/abs/1809.11096
● SAGAN + class conditioning (CGAN)
● Более тяжёлая архитектура (больше каналов, 2-4x больше
параметров, 8x больше размер батча)
● Более мощное железо для обучения
● Различные улучшения и хаки в процессе обучения: Truncation
Trick, Spectral Normalization, ...
Но...
https://twitter.com/quasimondo/status/1065610256917692416
Свежие примеры: GauGAN/SPADE
Semantic Image Synthesis with Spatially-Adaptive Normalization
https://arxiv.org/abs/1903.07291, https://nvlabs.github.io/SPADE/demo.html
Свежие примеры: vid2vid
https://github.com/NVIDIA/vid2vid
Video-to-Video Synthesis: https://arxiv.org/abs/1808.06601
https://distill.pub/2019/gan-open-problems/
Modern Sequence Learning
Classical RNN Encoder-Decoder
Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation,
https://arxiv.org/abs/1609.08144
СNN+RNN character-level Encoder-Decoder
Fully Character-Level Neural Machine Translation without Explicit Segmentation,
https://arxiv.org/abs/1610.03017
CNN encoder
A Convolutional Encoder Model for Neural Machine Translation
https://arxiv.org/abs/1611.02344
CNN encoder + decoder
Convolutional Sequence to Sequence Learning
https://arxiv.org/abs/1705.03122
Modern seq2seq architectures
Why Self-Attention? A Targeted Evaluation of Neural Machine Translation Architectures,
https://arxiv.org/abs/1808.08946
Другие архитектурные улучшения
Separable Convolution
Xception: Deep Learning with Depthwise Separable Convolutions
https://arxiv.org/abs/1610.02357
model = Sequential()
model.add(SeparableConv2D(32, activation='relu', input_shape=(height, width, channels)))
model.add(SeparableConv2D(64, activation='relu'))
model.add(MaxPooling2D(2))
Separable conv =
Depthwise conv + Pointwise conv
Dynamic Convolutions
Pay Less Attention with Lightweight and Dynamic Convolutions
https://arxiv.org/abs/1901.10430
Обучение
Batch Normalization
https://arxiv.org/abs/1805.11604
Роль skip connections
Visualizing the Loss Landscape of Neural Nets
https://arxiv.org/abs/1712.09913, https://www.cs.umd.edu/~tomg/projects/landscapes/
Другие нормализации
https://research.fb.com/wp-content/uploads/2018/09/Group-Normalization.pdf
● Batch Renormalization
● Layer Normalization
● Instance Normalization
● Group Normalization
● Weight Normalization
● ...
CLR: Cyclical Learning Rate
Cyclical Learning Rates for Training Neural Networks
https://arxiv.org/abs/1506.01186, https://github.com/bckenstler/CLR
SGDR: SGD with Warm Restarts
SGDR: Stochastic Gradient Descent with Warm Restarts
https://arxiv.org/abs/1608.03983
Snapshot Ensembling
Snapshot Ensembles: Train 1, get M for free
https://arxiv.org/abs/1704.00109
Спасибо!

More Related Content

What's hot

Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обученияДмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
AIST
 
Multithreading in JS. Myth or reality?
Multithreading in JS. Myth or reality?Multithreading in JS. Myth or reality?
Multithreading in JS. Myth or reality?
Alexander Syrotenko
 
Computer Vision and Deep Learning
Computer Vision and Deep LearningComputer Vision and Deep Learning
Computer Vision and Deep Learning
Grigory Sapunov
 
Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...
a15464321646213
 
Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...
a15464321646213
 
Семинар 12. Параллельное программирование на MPI (часть 5)
Семинар 12. Параллельное программирование на MPI (часть 5)Семинар 12. Параллельное программирование на MPI (часть 5)
Семинар 12. Параллельное программирование на MPI (часть 5)
Mikhail Kurnosov
 
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
Ontico
 
Machine learning c использованием нейронных сетей, Дмитрий Лапин
Machine learning c использованием нейронных сетей, Дмитрий ЛапинMachine learning c использованием нейронных сетей, Дмитрий Лапин
Machine learning c использованием нейронных сетей, Дмитрий Лапин
IT61
 
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Yandex
 
Использование Time-Stamp Counter для измерения времени выполнения кода на пр...
Использование Time-Stamp Counter для измерения времени выполнения кода  на пр...Использование Time-Stamp Counter для измерения времени выполнения кода  на пр...
Использование Time-Stamp Counter для измерения времени выполнения кода на пр...Mikhail Kurnosov
 
CUDA-Aware MPI
CUDA-Aware MPICUDA-Aware MPI
CUDA-Aware MPI
Eugene Kolesnikov
 
Bgp методякоби
Bgp методякобиBgp методякоби
Bgp методякобиMichael Karpov
 
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решенияДмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
FProg
 
Распределенные мультикластерные вычислительные системы и параллельное мультип...
Распределенные мультикластерные вычислительные системы и параллельное мультип...Распределенные мультикластерные вычислительные системы и параллельное мультип...
Распределенные мультикластерные вычислительные системы и параллельное мультип...Mikhail Kurnosov
 
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
Mikhail Kurnosov
 
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)Mikhail Kurnosov
 
Память в Java. Garbage Collector
Память в Java. Garbage CollectorПамять в Java. Garbage Collector
Память в Java. Garbage Collector
Olexandra Dmytrenko
 
ROS - Robotics Operation System
ROS - Robotics Operation SystemROS - Robotics Operation System
ROS - Robotics Operation Systemhudvin
 
Пишем самый быстрый хеш для кэширования данных
Пишем самый быстрый хеш для кэширования данныхПишем самый быстрый хеш для кэширования данных
Пишем самый быстрый хеш для кэширования данных
Roman Elizarov
 

What's hot (20)

Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обученияДмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
Дмитрий Кручинин - Сравнительный анализ библиотек глубинного обучения
 
Multithreading in JS. Myth or reality?
Multithreading in JS. Myth or reality?Multithreading in JS. Myth or reality?
Multithreading in JS. Myth or reality?
 
Computer Vision and Deep Learning
Computer Vision and Deep LearningComputer Vision and Deep Learning
Computer Vision and Deep Learning
 
Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...
 
Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...Архитектура и программирование потоковых многоядерных процессоров для научных...
Архитектура и программирование потоковых многоядерных процессоров для научных...
 
Семинар 12. Параллельное программирование на MPI (часть 5)
Семинар 12. Параллельное программирование на MPI (часть 5)Семинар 12. Параллельное программирование на MPI (часть 5)
Семинар 12. Параллельное программирование на MPI (часть 5)
 
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
Artisto: опыт запуска нейросетей в production / Эдуард Тянтов (Mail.ru Group)
 
Machine learning c использованием нейронных сетей, Дмитрий Лапин
Machine learning c использованием нейронных сетей, Дмитрий ЛапинMachine learning c использованием нейронных сетей, Дмитрий Лапин
Machine learning c использованием нейронных сетей, Дмитрий Лапин
 
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
Классификация изображений с помощью нейронных сетей. Сжатие и ускорение обуче...
 
Tbb лр1
Tbb   лр1Tbb   лр1
Tbb лр1
 
Использование Time-Stamp Counter для измерения времени выполнения кода на пр...
Использование Time-Stamp Counter для измерения времени выполнения кода  на пр...Использование Time-Stamp Counter для измерения времени выполнения кода  на пр...
Использование Time-Stamp Counter для измерения времени выполнения кода на пр...
 
CUDA-Aware MPI
CUDA-Aware MPICUDA-Aware MPI
CUDA-Aware MPI
 
Bgp методякоби
Bgp методякобиBgp методякоби
Bgp методякоби
 
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решенияДмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
Дмитрий Грошев, Фёдор Гоголев. Erlang и Haskell в production: проблемы и решения
 
Распределенные мультикластерные вычислительные системы и параллельное мультип...
Распределенные мультикластерные вычислительные системы и параллельное мультип...Распределенные мультикластерные вычислительные системы и параллельное мультип...
Распределенные мультикластерные вычислительные системы и параллельное мультип...
 
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
Лекция 3. Векторизация кода (Code vectorization: SSE, AVX)
 
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)
Лекция 3: Векторизация кода (Code vectorization, SIMD, SSE, AVX)
 
Память в Java. Garbage Collector
Память в Java. Garbage CollectorПамять в Java. Garbage Collector
Память в Java. Garbage Collector
 
ROS - Robotics Operation System
ROS - Robotics Operation SystemROS - Robotics Operation System
ROS - Robotics Operation System
 
Пишем самый быстрый хеш для кэширования данных
Пишем самый быстрый хеш для кэширования данныхПишем самый быстрый хеш для кэширования данных
Пишем самый быстрый хеш для кэширования данных
 

Similar to Modern neural net architectures - Year 2019 version

Теория языков программирования некоторые слайды к лекциям
Теория языков программирования некоторые слайды к лекциямТеория языков программирования некоторые слайды к лекциям
Теория языков программирования некоторые слайды к лекциям
Sergey Staroletov
 
TMPA-2013 Sartakov: Genode
TMPA-2013 Sartakov: GenodeTMPA-2013 Sartakov: Genode
TMPA-2013 Sartakov: Genode
Iosif Itkin
 
Разработка сетевых приложений с gevent
Разработка сетевых приложений с geventРазработка сетевых приложений с gevent
Разработка сетевых приложений с gevent
Andrey Popp
 
CUDA & CAFFE
CUDA & CAFFE CUDA & CAFFE
CUDA & CAFFE
Andrew Babiy
 
Git for you
Git for youGit for you
Git for you
Pavel Alexeev
 
Инструменты профайлинга С++ кода
Инструменты профайлинга С++ кодаИнструменты профайлинга С++ кода
Инструменты профайлинга С++ кода
corehard_by
 
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...Ontico
 
Другая виртуализация
Другая виртуализацияДругая виртуализация
Другая виртуализация
Yandex
 
Deep convolution networks with caffe
Deep convolution networks with caffeDeep convolution networks with caffe
Deep convolution networks with caffe
Andrew Babiy
 
Как приручить проектное окружение. PHP UG Minsk, июнь'2014
Как приручить проектное окружение. PHP UG Minsk, июнь'2014Как приручить проектное окружение. PHP UG Minsk, июнь'2014
Как приручить проектное окружение. PHP UG Minsk, июнь'2014kamazee
 
Scala performance под капотом
Scala performance под капотомScala performance под капотом
Scala performance под капотом
Roman Grebennikov
 
Семинар 1. Многопоточное программирование на OpenMP (часть 1)
Семинар 1. Многопоточное программирование на OpenMP (часть 1)Семинар 1. Многопоточное программирование на OpenMP (часть 1)
Семинар 1. Многопоточное программирование на OpenMP (часть 1)
Mikhail Kurnosov
 
Работа с Big Data
Работа с Big Data Работа с Big Data
Работа с Big Data
MATLAB
 
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
Unigine Corp.
 
PureMVC в картинках - часть 1
PureMVC в картинках - часть 1PureMVC в картинках - часть 1
PureMVC в картинках - часть 1
Rostyslav Siryk
 
Intelligent или сделай мне красиво
Intelligent или сделай мне красивоIntelligent или сделай мне красиво
Intelligent или сделай мне красиво
Artem Malyshev
 
Плюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
Плюсы и минусы Go для разработчиков на C++, Вячеслав БахмутовПлюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
Плюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
Yandex
 
Павел Павлов - Scala для профессионалов - Joker 2013
Павел Павлов - Scala для профессионалов - Joker 2013Павел Павлов - Scala для профессионалов - Joker 2013
Павел Павлов - Scala для профессионалов - Joker 2013ScalaNsk
 

Similar to Modern neural net architectures - Year 2019 version (20)

Теория языков программирования некоторые слайды к лекциям
Теория языков программирования некоторые слайды к лекциямТеория языков программирования некоторые слайды к лекциям
Теория языков программирования некоторые слайды к лекциям
 
TMPA-2013 Sartakov: Genode
TMPA-2013 Sartakov: GenodeTMPA-2013 Sartakov: Genode
TMPA-2013 Sartakov: Genode
 
Разработка сетевых приложений с gevent
Разработка сетевых приложений с geventРазработка сетевых приложений с gevent
Разработка сетевых приложений с gevent
 
CUDA & CAFFE
CUDA & CAFFE CUDA & CAFFE
CUDA & CAFFE
 
Git for you
Git for youGit for you
Git for you
 
Инструменты профайлинга С++ кода
Инструменты профайлинга С++ кодаИнструменты профайлинга С++ кода
Инструменты профайлинга С++ кода
 
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...
Суперкомпьютеры сегодня и завтра архитектура, проблемы, перспективы (Андрей С...
 
Другая виртуализация
Другая виртуализацияДругая виртуализация
Другая виртуализация
 
Rpm5
Rpm5Rpm5
Rpm5
 
Deep convolution networks with caffe
Deep convolution networks with caffeDeep convolution networks with caffe
Deep convolution networks with caffe
 
Как приручить проектное окружение. PHP UG Minsk, июнь'2014
Как приручить проектное окружение. PHP UG Minsk, июнь'2014Как приручить проектное окружение. PHP UG Minsk, июнь'2014
Как приручить проектное окружение. PHP UG Minsk, июнь'2014
 
Scala performance под капотом
Scala performance под капотомScala performance под капотом
Scala performance под капотом
 
Семинар 1. Многопоточное программирование на OpenMP (часть 1)
Семинар 1. Многопоточное программирование на OpenMP (часть 1)Семинар 1. Многопоточное программирование на OpenMP (часть 1)
Семинар 1. Многопоточное программирование на OpenMP (часть 1)
 
Работа с Big Data
Работа с Big Data Работа с Big Data
Работа с Big Data
 
Gitlab devconf
Gitlab devconfGitlab devconf
Gitlab devconf
 
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
Портирование C++ приложений на FLASCC: опыт Unreal Engine 3. Павел Наказненко...
 
PureMVC в картинках - часть 1
PureMVC в картинках - часть 1PureMVC в картинках - часть 1
PureMVC в картинках - часть 1
 
Intelligent или сделай мне красиво
Intelligent или сделай мне красивоIntelligent или сделай мне красиво
Intelligent или сделай мне красиво
 
Плюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
Плюсы и минусы Go для разработчиков на C++, Вячеслав БахмутовПлюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
Плюсы и минусы Go для разработчиков на C++, Вячеслав Бахмутов
 
Павел Павлов - Scala для профессионалов - Joker 2013
Павел Павлов - Scala для профессионалов - Joker 2013Павел Павлов - Scala для профессионалов - Joker 2013
Павел Павлов - Scala для профессионалов - Joker 2013
 

More from Grigory Sapunov

Transformers in 2021
Transformers in 2021Transformers in 2021
Transformers in 2021
Grigory Sapunov
 
AI Hardware Landscape 2021
AI Hardware Landscape 2021AI Hardware Landscape 2021
AI Hardware Landscape 2021
Grigory Sapunov
 
NLP in 2020
NLP in 2020NLP in 2020
NLP in 2020
Grigory Sapunov
 
What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)
Grigory Sapunov
 
Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]
Grigory Sapunov
 
Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)
Grigory Sapunov
 
Transformer Zoo
Transformer ZooTransformer Zoo
Transformer Zoo
Grigory Sapunov
 
BERTology meets Biology
BERTology meets BiologyBERTology meets Biology
BERTology meets Biology
Grigory Sapunov
 
Deep learning: Hardware Landscape
Deep learning: Hardware LandscapeDeep learning: Hardware Landscape
Deep learning: Hardware Landscape
Grigory Sapunov
 
AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)
Grigory Sapunov
 
Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​
Grigory Sapunov
 
Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018
Grigory Sapunov
 
Sequence learning and modern RNNs
Sequence learning and modern RNNsSequence learning and modern RNNs
Sequence learning and modern RNNs
Grigory Sapunov
 
Введение в машинное обучение
Введение в машинное обучениеВведение в машинное обучение
Введение в машинное обучение
Grigory Sapunov
 
Artificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and FutureArtificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and Future
Grigory Sapunov
 
Multidimensional RNN
Multidimensional RNNMultidimensional RNN
Multidimensional RNN
Grigory Sapunov
 
Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016
Grigory Sapunov
 
Deep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image ProcessingDeep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image Processing
Grigory Sapunov
 
Apache Spark & MLlib
Apache Spark & MLlibApache Spark & MLlib
Apache Spark & MLlib
Grigory Sapunov
 
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Grigory Sapunov
 

More from Grigory Sapunov (20)

Transformers in 2021
Transformers in 2021Transformers in 2021
Transformers in 2021
 
AI Hardware Landscape 2021
AI Hardware Landscape 2021AI Hardware Landscape 2021
AI Hardware Landscape 2021
 
NLP in 2020
NLP in 2020NLP in 2020
NLP in 2020
 
What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)What's new in AI in 2020 (very short)
What's new in AI in 2020 (very short)
 
Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]Artificial Intelligence (lecture for schoolchildren) [rus]
Artificial Intelligence (lecture for schoolchildren) [rus]
 
Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)Transformer Zoo (a deeper dive)
Transformer Zoo (a deeper dive)
 
Transformer Zoo
Transformer ZooTransformer Zoo
Transformer Zoo
 
BERTology meets Biology
BERTology meets BiologyBERTology meets Biology
BERTology meets Biology
 
Deep learning: Hardware Landscape
Deep learning: Hardware LandscapeDeep learning: Hardware Landscape
Deep learning: Hardware Landscape
 
AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)AI - Last Year Progress (2018-2019)
AI - Last Year Progress (2018-2019)
 
Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​Практический подход к выбору доменно-адаптивного NMT​
Практический подход к выбору доменно-адаптивного NMT​
 
Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018Deep Learning: Application Landscape - March 2018
Deep Learning: Application Landscape - March 2018
 
Sequence learning and modern RNNs
Sequence learning and modern RNNsSequence learning and modern RNNs
Sequence learning and modern RNNs
 
Введение в машинное обучение
Введение в машинное обучениеВведение в машинное обучение
Введение в машинное обучение
 
Artificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and FutureArtificial Intelligence - Past, Present and Future
Artificial Intelligence - Past, Present and Future
 
Multidimensional RNN
Multidimensional RNNMultidimensional RNN
Multidimensional RNN
 
Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016Deep Learning and the state of AI / 2016
Deep Learning and the state of AI / 2016
 
Deep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image ProcessingDeep Learning Cases: Text and Image Processing
Deep Learning Cases: Text and Image Processing
 
Apache Spark & MLlib
Apache Spark & MLlibApache Spark & MLlib
Apache Spark & MLlib
 
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
Международная научно-практическая конференция учителей / Яндекс, МФТИ / 05.12...
 

Modern neural net architectures - Year 2019 version