Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
Нейронные сети на
страже индустриальной
кибербезопасности
Павел Филонов
digitalsubstation.ru
http://taneco.tatneft.ru/
Физика ПЛК Полнота Данные
Реальный
объект
Реальная Реальные Только
«хорошие»
примеры
Трудно
добывать
данные
Физика ПЛК Полнота Данные
Реальный
объект
Реальная Реальные Только
«хорошие»
примеры
Трудно
добывать
данные
Физика ПЛК Полнота Данные
Реальный
объект
Реальная Реальные Только
«хорошие»
примеры
Трудно
добывать
данные
Натурная
модел...
Физика ПЛК Полнота Данные
Реальный
объект
Реальная Реальные Только
«хорошие»
примеры
Трудно
добывать
данные
Натурная
модел...
Физика ПЛК Полнота Данные
Реальный
объект
Реальная Реальные Только
«хорошие»
примеры
Трудно
добывать
данные
Натурная
модел...
Многомерный временной ряд
Подходы к снаряду
Rules Based Systems
• Прозрачные
• Нужен эксперт
• Ловят только то, что знают
• Сложны в реализации
• До...
Machine learning за 5 минут
Machine learning за 5 минут
Machine learning за 5 минут
Machine learning за 5 минут
Start
Segmen
tation
PCA
Feed
forward
networks
LSTM
Finish
Сигнал
ССегментация
Извлечение
признаков
𝑥11 ⋯ 𝑥1𝑚
⋮ ⋱ ⋮
𝑥 𝑛1 ⋯ 𝑥 𝑛𝑚
Сегменты
Матрица признаков
Кластеризация
Кластеры
Код...
Сегментация
• Достоинства
• Удобно визуализировать
• Можно легко трактовать
• Можно применять символьные методы
• Недостак...
Start
Segmen
tation
PCA
Feed
forward
networks
LSTM
Finish
Метод главных компонент (PCA)
Метод главных компонент
• Достоинства
• Быстрые алгоритмы обучения
• Эффективные онлайн-алгоритмы
• Хорошо укладывается в ...
Start
Segmen
tation
PCA
Feed
forward
networks
LSTM
Finish
Заглянем в будущее
Заглянем в будущее
Input
Hidden
Output
Сети прямого распространения
• Достоинства
• Быстрые онлайн-алгоритмы вывода
• Хорошо справляются с многомерными данными
•...
Start
Segmen
tation
PCA
Feed
forward
networks
LSTM
Finish
Рекуррентные нейронные сети
Изображение: colah.github.io
Рекуррентные нейронные сети
Изображение : colah.github.io
Stacked LSTM
Реккурентные сети
• Достоинства
• «Бесконечная» память
• Эффективные онлайн-алгоритмы вывода
• Недостатки
• «Холодный» ста...
Die Hard X
черновик сценария
Заводик работает в штатном режиме
Заводик работает в штатном режиме
В системе завелся зловред
Что-то пошло не так!
Есть сигнал!
Оценка качества
Шеф, у нас проблемы В городе все спокойно
Осуществляется атака True Positive (TP) False Negative (FN)
Штат...
Кручу-верчу
𝐹 = 2
𝑃 ∙ 𝑅
𝑃 + 𝑅
𝐹-мера:
Источники
1. Stuxnet: первые жертвы – blogpost
2. Будни немецких сталеваров – blogpost
3. E. Keogh, S. Chu, D. Hart, and M...
Источники
7. L. Huang, X. Ngueyn, M. Garofalakis, M. Jordan, A. Joseph, and N.
Taft. In-Network PCA and Anomaly Detection ...
Источники
13. A. Nanduri, L. Sherry. Anomaly detection in aircraft data using
recurrent neural networks (RNN) – paper
14. ...
Спасибо за внимание!
email: Pavel.Filonov@Kaspersky.com
github: github.com/sdukshis
twitter: @filonovpv
А нам нужно GPU?
• Горизонт прогноза – 5 минут
• Количество каналов ~ 600
• Keras 1.1.0
• Theano 0.8.2
• CUDA 8RC
Спасибо ...
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)
Upcoming SlideShare
Loading in …5
×

Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)

928 views

Published on

Новые угрозы, которые появляются в области ICS, требуют новых подходов к обеспечению безопасности объектов критической инфраструктуры. В докладе будет рассмотрена задача автоматического обнаружения сбоев в работе технологических процессов на основе анализа динамики показаний сенсоров и управляющих сигналов.

Модель обнаружения сбоев работает на основе прогнозирования значений множества связанных временных рядов с помощью многослойной нейронной сети с рекуррентными слоями. В докладе будет рассказано про выбор архитектуры сети и настройку ее гиперпараметров.

Отдельно будут обсуждены проблемы добычи данных, в частности, как можно моделировать физически реализуемые сбои в работе системы для последующей оценки характеристик точности и полноты модели.

Published in: Engineering
  • Be the first to comment

Нейронные сети на страже индустриальной кибербезопасности / Павел Филонов (Лаборатория Касперского)

  1. 1. Нейронные сети на страже индустриальной кибербезопасности Павел Филонов
  2. 2. digitalsubstation.ru
  3. 3. http://taneco.tatneft.ru/
  4. 4. Физика ПЛК Полнота Данные Реальный объект Реальная Реальные Только «хорошие» примеры Трудно добывать данные
  5. 5. Физика ПЛК Полнота Данные Реальный объект Реальная Реальные Только «хорошие» примеры Трудно добывать данные
  6. 6. Физика ПЛК Полнота Данные Реальный объект Реальная Реальные Только «хорошие» примеры Трудно добывать данные Натурная модель Упрощенная Реальные Мало «плохих» примеров Долго добывать данные
  7. 7. Физика ПЛК Полнота Данные Реальный объект Реальная Реальные Только «хорошие» примеры Трудно добывать данные Натурная модель Упрощенная Реальные Мало «плохих» примеров Долго добывать данные
  8. 8. Физика ПЛК Полнота Данные Реальный объект Реальная Реальные Только «хорошие» примеры Трудно добывать данные Натурная модель Упрощенная Реальные Мало «плохих» примеров Долго добывать данные Компьютерная модель Модельная Модельные Много различных примеров Легко добывать данные
  9. 9. Многомерный временной ряд
  10. 10. Подходы к снаряду Rules Based Systems • Прозрачные • Нужен эксперт • Ловят только то, что знают • Сложны в реализации • Долгое внедрение • Ложные срабатывания Machine Learning • Непрозрачные • Нужны данные • Могут поймать новые атаки • Просты в реализации • Быстрое внедрение* • Ложные срабатывания*
  11. 11. Machine learning за 5 минут
  12. 12. Machine learning за 5 минут
  13. 13. Machine learning за 5 минут
  14. 14. Machine learning за 5 минут
  15. 15. Start Segmen tation PCA Feed forward networks LSTM Finish
  16. 16. Сигнал ССегментация Извлечение признаков 𝑥11 ⋯ 𝑥1𝑚 ⋮ ⋱ ⋮ 𝑥 𝑛1 ⋯ 𝑥 𝑛𝑚 Сегменты Матрица признаков Кластеризация Кластеры Кодирование цепочек Последовательности меток
  17. 17. Сегментация • Достоинства • Удобно визуализировать • Можно легко трактовать • Можно применять символьные методы • Недостаки • Трудоемкие онлайн-алгоритмы • Сложно обобщить на многомерный случай • Необходимо подбирать много параметров • Неизвестное заранее число кластеров
  18. 18. Start Segmen tation PCA Feed forward networks LSTM Finish
  19. 19. Метод главных компонент (PCA)
  20. 20. Метод главных компонент • Достоинства • Быстрые алгоритмы обучения • Эффективные онлайн-алгоритмы • Хорошо укладывается в многомерный случай • Недостатки • Плохо подходит для случая нелинейных зависимостей • Работает без памяти • Непрозрачный
  21. 21. Start Segmen tation PCA Feed forward networks LSTM Finish
  22. 22. Заглянем в будущее
  23. 23. Заглянем в будущее Input Hidden Output
  24. 24. Сети прямого распространения • Достоинства • Быстрые онлайн-алгоритмы вывода • Хорошо справляются с многомерными данными • Хорошо описывают нелинейные зависимости • Недостатки • Долгое время обучения • Непрозрачность • Необходимо подбирать размеры временного окна
  25. 25. Start Segmen tation PCA Feed forward networks LSTM Finish
  26. 26. Рекуррентные нейронные сети Изображение: colah.github.io
  27. 27. Рекуррентные нейронные сети Изображение : colah.github.io
  28. 28. Stacked LSTM
  29. 29. Реккурентные сети • Достоинства • «Бесконечная» память • Эффективные онлайн-алгоритмы вывода • Недостатки • «Холодный» старт • Очень доглое время обучения • Непрозрачность
  30. 30. Die Hard X черновик сценария
  31. 31. Заводик работает в штатном режиме
  32. 32. Заводик работает в штатном режиме
  33. 33. В системе завелся зловред
  34. 34. Что-то пошло не так!
  35. 35. Есть сигнал!
  36. 36. Оценка качества Шеф, у нас проблемы В городе все спокойно Осуществляется атака True Positive (TP) False Negative (FN) Штатный режим False Positive (FP) True Negative (TN) Точность (precision) 𝑃 = 𝑇𝑃 𝑇𝑃+𝐹𝑃 Полнота (recall) 𝑅 = 𝑇𝑃 𝑇𝑃+𝐹𝑁
  37. 37. Кручу-верчу 𝐹 = 2 𝑃 ∙ 𝑅 𝑃 + 𝑅 𝐹-мера:
  38. 38. Источники 1. Stuxnet: первые жертвы – blogpost 2. Будни немецких сталеваров – blogpost 3. E. Keogh, S. Chu, D. Hart, and M. Pazzani. Segmenting Time Series: A Survey and Novel Approach – paper 4. L.H. Chiang, E.L. Russel, and R.D. Bratz. Fault Detection and Diagnosis in Industrial Systems – eBook 5. E. Keogh, J. Lin, and A. Fu. HOT SAX: Finding the Most Unusual Time Series Subsequence: Algorithms and Applications – paper 6. K. Koutroumbas, S. Theodoridis. Pattern Recognition - eBook
  39. 39. Источники 7. L. Huang, X. Ngueyn, M. Garofalakis, M. Jordan, A. Joseph, and N. Taft. In-Network PCA and Anomaly Detection – paper 8. A. Lebedevich. Statistics for Monitoring: Anomaly Detection – blogpost 9. К. В. Воронцов. Прогнозироваие временных рядов – slides, video 10. Neural Networks for Time Series Prediction – slides 11. P. Malhotra, A. Ramakrishnan, G. Anand, and L. Vig. LSTM-based Encoder-Decoder for Multi-sensor Anomaly Detection – paper 12. P. Malhotra, L. Vig, G. Shroff, P. Agarwal. Long Short Term Memory Networks for Anomaly Detection in Time Series - paper
  40. 40. Источники 13. A. Nanduri, L. Sherry. Anomaly detection in aircraft data using recurrent neural networks (RNN) – paper 14. A. Karpathy. The unreasonable effectiveness of rcurrent neural networks – blogpost 15. C. Olah. Understanding LSTM Networks – blogpost 16. J. Brownlee. Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras – blogpost 17. S. Hochreiter, J. Schmidhuber. Long Short-Term Memory - paper 18. Y. Bengio, P. Simard, and P. Frasconi. Learning Long-Term Dependencies with Gradient Descent is Difficult - paper
  41. 41. Спасибо за внимание! email: Pavel.Filonov@Kaspersky.com github: github.com/sdukshis twitter: @filonovpv
  42. 42. А нам нужно GPU? • Горизонт прогноза – 5 минут • Количество каналов ~ 600 • Keras 1.1.0 • Theano 0.8.2 • CUDA 8RC Спасибо команде Nvidia!

×