Successfully reported this slideshow.
Your SlideShare is downloading. ×

Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security

Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Loading in …3
×

Check these out next

1 of 62 Ad

Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security

Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security

- cihan [at] deeplab.co
- cihanozhan.com
- Blog : https://cihanozhan.medium.com/webinar-ai-security-yapay-zeka-ve-computer-vision-g%C3%BCvenli%C4%9Fi-4ce9db9aaa4b

Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security

- cihan [at] deeplab.co
- cihanozhan.com
- Blog : https://cihanozhan.medium.com/webinar-ai-security-yapay-zeka-ve-computer-vision-g%C3%BCvenli%C4%9Fi-4ce9db9aaa4b

Advertisement
Advertisement

More Related Content

Similar to Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security (20)

More from Cihan Özhan (20)

Advertisement

Yapay Zeka Güvenliği : Machine Learning & Deep Learning & Computer Vision Security

  1. 1. AI Security Machine Learning, Deep Learning and Computer Vision Security Cihan Özhan | Founder of DeepLab | Developer, AI Engineer, AI Hacker 11/2021
  2. 2. cihanozhan.com deeplab.co
  3. 3. Model Machine Learning, Deep Learning Algorithm
  4. 4. https://www.tensorflow.org/tutorials/quickstart/beginner https://colab.research.google.com/github/tensorflow/docs/blob/master/site/en/tutorials/quickstart/beginner.ipynb
  5. 5. AI Data Objects • Image • Text • File • Voice • Video • Frequency • 3D Object • Data
  6. 6. ML/DL Applications • Image Classification • Pose Estimation • Face Recognition • Face Detection • Object Detection • Question Answering System • Semantic Segmentation • Text Classification • Text Recognition • Sentiment Analysis • Industrial AI • Autonomous Systems • and more…
  7. 7. ML/DL Algorithms • Classification (Supervised) • Clustering (Unsupervised) • Regression (Supervised) • Generative Models (Semi-Supervised) • Dimensionality Reduction (Unsupervised) • Reinforcement Learning (Reinforcement) • Convolutional Neural Network (CNN) • Recurrent Neural Network (RNN)
  8. 8. Model Lifecycle Machine Learning Model Development Lifecycle
  9. 9. Model Lifecycle Machine Learning Model Development Lifecycle Biz buradan başlıyoruz! ML model hazırlık süreci Angarya ama mecburi görev: Veriyi hazırlamak! Modeli hazırlamışız! Modeli veri ile eğitiyoruz. Cloud ya da On-Premise Eğitilmiş modeli test verisi ile test ettik! Eğitilen model programsal ortam için paketlenir. Yayın sonrası: Model sürekli izlenir.
  10. 10. MLaaS? Machine Learning as a Service ML/DL algoritma ve yazılımlarının, bulut bilişim hizmetlerinin bir bileşeni olarak sunulması modeline denir. MLaaS = (SaaS + [ML/DL/CV])
  11. 11. Hidden Technical Debt in Machine Learning Systems https://papers.nips.cc/paper/2015/file/86df7dcfd896fcaf2674f757a2463eba-Paper.pdf Genellikle tüm ekip, odak ve kaynakların yönlendirildiği alan!
  12. 12. Machine Learning projesi Nasıl Yayınlanır?
  13. 13. MartinFowler.com
  14. 14. MartinFowler.com
  15. 15. Machine Learning Security Adversarial Attacks
  16. 16. Adversarial Attack nedir? ”ML modellerini aldatmaya çalışan ve modelin hata yapmasına neden olan bir tekniktir.” Yüksek Tehdit Senaryoları Self-Driving Cars, İHA/SİHA, IT Security, Yüz/Kimlik/Nesne Tanıma Sistemleri vb…
  17. 17. *İşimiz zaten pek kolay değildi!
  18. 18. Adversarial Attack : Image (https://adversarial.io/) *İki panda arasındaki fark
  19. 19. Nasıl çalışır?
  20. 20. Use Cases Adversarial Attacks
  21. 21. Adversarial Attack : Speech-to-Text (https://people.eecs.berkeley.edu/~daw/papers/audio-dls18.pdf)
  22. 22. https://arxiv.org/pdf/2006.03575.pdf
  23. 23. Adversarial Attack : NLP https://arxiv.org/pdf/2005.05909.pdf https://github.com/QData/TextAttack
  24. 24. Adversarial Attack : Remote Sensing (https://arxiv.org/pdf/1805.10997.pdf)
  25. 25. Adversarial Attack : Satellite (https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8823003)
  26. 26. Adversarial Attack : Military https://spectrum.ieee.org/automaton/artificial-intelligence/embedded-ai/adversarial-attacks-and-ai-systems
  27. 27. Adversarial Attack : Military https://www.sto.nato.int/publications/STO%20Meeting%20Proceedings/STO-MP-IST-160/MP-IST-160-S1-5.pdf
  28. 28. Adversarial Attack : Autonomous Driving https://web.cs.ucla.edu/~miryung/Publications/percom2020-autonomousdriving.pdf https://github.com/ITSEG-MQ/Adv-attack-and-defense-on-driving-model
  29. 29. Security Research of Tesla Autopilot (40 Pages) https://keenlab.tencent.com/en/whitepapers/Experimental_Security_Research_of_Tesla_Autopilot.pdf
  30. 30. Black-Box Vs White-Box Adversaries • White-Box – NN ile ilgili tüm detaylar bilinir. – NN’e doğrudan saldırı yapılabilir. – Daha kolay yol. – Saldırılar benzer olan diğer NN’lere uygulanabilir. • Black-Box – “Hangi modele saldıracağımı biliyorum” • Örnek : AlexNet – İlgili NN hakkında hiçbir detayın bilinmediği senaryo. – Input-Output eşlemesi üzerinden saldırı kontrolü yapılabilir. – Sahte(Dummy) bir NN oluşturup eğitin, saldırın ve sonrasında aynı yöntemler ile Black-Box network’e saldırın.
  31. 31. Benign Vs Bad Adversarial Attacks
  32. 32. https://hackernoon.com/adversarial-attacks-how-to-trick-computer-vision-7484c4e85dc0
  33. 33. https://openai.com/blog/adversarial-example-research/
  34. 34. Black-Box Use Case (Autonomous Vehicles ADAS Hacking) https://www.mcafee.com/blogs/other-blogs/mcafee-labs/model-hacking-adas-to-pave-safer-roads-for-autonomous-vehicles/ 85
  35. 35. https://ece.princeton.edu/news/researchers-work-protect-smart-machines-smart-attacks
  36. 36. Nasıl?
  37. 37. *Saldırı odaklı gözlem verisi arttıkça sağlıklı network(NN)’in bozulma aşamaları.
  38. 38. - Solda kirli bir ‘Dur’ işareti. - Sağda sticker ile yanlış sınıflandırmayı tetiklemek için değiştirilen ‘Dur’ işareti. 45mph hız limiti olarak algılanıyor.
  39. 39. https://docs.microsoft.com/en-us/security/ Güven Azaltma
  40. 40. https://docs.microsoft.com/en-us/security/ Hedeflenen Yanlış Sınıflandırma
  41. 41. https://docs.microsoft.com/en-us/security/ Kaynak/Hedef Yanlış Sınıflandırma
  42. 42. Banana or Toaster https://youtu.be/i1sp4X57TL4
  43. 43. Fooling Speech Recognition https://adversarial-attacks.net/ - https://youtu.be/l_AkXxZt10I
  44. 44. Defense & Research Papers https://nicholas.carlini.com/writing/2019/all-adversarial-example-papers.html https://docs.microsoft.com/en-us/security/engineering/threat-modeling-aiml
  45. 45. Savunma Odaklı Öneriler • İş/Uygulama Hedefinin Net/Açık/Temiz Olması • Secure Engineering • Input ve Output’larda İhtiyat, Kontrol, Log(Herşey) • Model Integrity(Model Tutarlılığı) • Model Testing • Sistem Esnekliği
  46. 46. Savunma Odaklı Öneriler • Sinir ağını, onları gürültü olarak tanımayı ve soyutlamayı öğrenene kadar komik gözlük takan daha fazla insan örneği ile eğitin. • Sinir ağlarını yalnızca öğrenmeleri gereken kalıplarla değil, aynı zamanda tanımamaları gereken binlerce saçma girdiyle de eğitmemiz gerekir. • Threat Modeling'i kullanın ve standart güvenlik kontrollerini uygulayın. • Tehdit modellemenizi, geleneksel teknik kullanım senaryolarının dışında belirli kullanım senaryolarını içerecek şekilde genişletin. • Ses, video ve jest/mimik odaklı kullanıcı deneyimleri için tehdit modelleme. • Yapay zekanızın belirgin kullanım senaryosu nedir? • AI etkileşimleri, kullanıcının etkileşimleri ve bir saldırganın etkileşimleri hakkındaki varsayımlarınız nelerdir? • Gözlem ve komutlara cevap olarak AI sisteminizin planlarını ve eylemlerini nasıl çalıştırmayı, izlemeyi ve kontrol etmeyi planlıyorsunuz? https://docs.microsoft.com/en-us/security/engineering/threat-modeling-aiml
  47. 47. Temel Güvenlik Sorunları Kasıtlı Hatalar Kasıtsız Hatalar Perturbation Attack Reward Hacking Poisoning Attack Side Effects Model Inversion Distributional Shifts Membership Inference Natural Adversarial Examples Model Stealing Common Corruption Reprogramming ML system (NN Reprogramming) Incomplete Testing Adversarial Example in Pyhsical Domain Malicious ML provider recovering training data Attacking the ML supply chain Backdoor ML Exploit Software Dependencies
  48. 48. Data Poisoning Attacking Model Availability
  49. 49. Data Poisoning Attacking Model Availability • Saldırgan, bir modelin eğitim pipeline’ına kötü niyetli/anormal veriler enjekte edebilir ve bu da modelin kararında kasıtlı bir sapmaya neden olabilir. • Modelin kararını değiştirmek için sisteme yeterince kötü amaçlı veriyle saldırın. https://sweis.medium.com/security-privacy-risks-of-machine-learning-models-cd0a44ac22b9
  50. 50. Exploit Software Dependencies • Algoritmaları değil, sistem bağımlı olduğu yazılımların güvenlik açıklarından faydalanır. • Önlem: – Security Scan – Security Reports – Dikkat Et : Wrappers ve Pre-Build Environment – Az Dependency Kullan – Dependency Management Tools • Synk : Synk.io • Python Poetry : python-poetry.org • Bandit : – Bandit is a tool designed to find common security issues in Python code. – https://github.com/PyCQA/bandit • pyup.io/safety • requires.io – vb…
  51. 51. Tool/Library Security (TensorFlow) • TensorFlow(gibi araçlar) internal iletişim için tasarlanmıştır, güvensiz(untrusted) ağlarda çalışmak için değil. • Bu araçlar(ModelServer vb.) built-in yetkilendirmeye sahip değildir. • Dosyaları okuyup yazabilir, network üzerinden veri alıp gönderebilir… • (!) TensorFlow Models as Programs • (!) Running Untrusted Models • (!) Accepting Untrusted Inputs https://github.com/tensorflow/tensorflow/blob/master/SECURITY.md
  52. 52. Endüstriyel Yapay Zeka ve Otonom Araçlar - Cihan Özhan https://www.youtube.com/watch?v=ID_tw5iq6Xs
  53. 53. https://medium.com/@ml.at.berkeley/tricking-neural-networks-create-your-own-adversarial-examples-a61eb7620fd8
  54. 54. Cihan Özhan Bağlantılar • cihanozhan.com • linkedin.com/in/cihanozhan • medium.com/@cihanozhan • youtube.com/cihanozhan • twitter.com/UnmannedCode • github.com/cihanozhan E-Mail • cihan@deeplab.co

×