Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Points de repère pour un développement responsable des systèmes d’IA

396 views

Published on

Support de présentation pour une intervention d'1h / 1h30 sur les questions d'éthique liées aux systèmes d'IA. Enjeux, éléments du débat, pistes de réflexions.

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Points de repère pour un développement responsable des systèmes d’IA

  1. 1. Aymeric Poulain Maubant – Nereÿs // @AymericPM2019-2020 – Aymeric Poulain Maubant – Nereÿs // @AymericPM Points de repère pour un développement responsable des systèmes d’IA #AIethics
  2. 2. Aymeric Poulain Maubant – Nereÿs // https://medium.com/@AymericPM
  3. 3. S’interroger sur l’usage des technologies 3
  4. 4. L’ingénieur « éthique » sera politisé, ou ne sera pas (11/2019) Livre: Quelle éthique pour l’ingénieur ? Laure Flandrin & Fanny Verrax(11/2019) Quelle éthique pour l’ingénieur ? 4
  5. 5. Thales appelle à interdire les «robots tueurs» équipés d’IA. janvier 2019 Les industriels demandent plus de régulation 5
  6. 6. Quand on parle d’IA aujourd’hui, quels sont les sujets ? 0. 6
  7. 7. Quelques grands débats • les IA générales, et considérations transhumanistes associées • les IA vont prendre notre boulot • les IA vont créer une société dystopique • (re)définition du Deep Learning (est-ce un projet de recherche, un projet industriel ?), et débat sur les systèmes hybrides en IA • discours sur les applications, les services à base plus ou moins d’IA, les startups et financements qui vont avec, champ médiatique que l’on peut désigner par “hype marketing” • … 7
  8. 8. Au début régnait l’imaginaire de la peur 8
  9. 9. Encore une fois, les commentaires sur un rapport sur les IA passent à côté de l’essentiel (2018) Quelles menaces ? The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, février 2018 Trois domaines de menaces : • digital security, menaces par et sur des ressources numériques • physical security, menaces par et sur des objets matériels • political security, menaces sur la société et le vivre-ensemble Un document qu’il faut prendre le temps de lire. 9
  10. 10. Puis on a pu parler de Coopération des intelligences 10
  11. 11. L’IA : une technologie d’intérêt général (GPT) 11
  12. 12. « AI is the new electricity Andrew Ng Google Brain, Coursera, Baidu…
  13. 13. Le monde est en train d’être « cognitisé », et les IA ne se remarquent plus 13
  14. 14. Et si on passait à la transition cognitive ? (oct 2016) On peut parler de « transition cognitive » La transition numérique ne suffit plus. La transition cognitive est le passage de tous nos objets, nos usages, nos activités, notre quotidien et notre société vers des états où les intelligences artificielles augmenteront nos capacités intellectuelles individuelles et collectives. 14
  15. 15. Les systèmes d’IA s’inscrivent dans un cadre conceptuel précis 15
  16. 16. Promesses et défis de l’Intelligence Artificielle[Olivier Boissier, AFIA] Un cadre conceptuel Socio-technique Interactive Autonome Raisonnement – Décision Apprentissage Incertitude Perception – Vision Données / Connaissances Interopérabilité, Sémantique Intégration de systèmes intelligents Empathie, Émotions Conversation, TALN, Délégation / Adoption / Contrat Partage d'autorité Confiance Normes, Organisations / Gouvernance, Régulation, Renforcement Représentation et raisonnement sur Valeurs, Cultures Lois, Responsabilité Éthique dès la conception, Éthique par raisonnement 16
  17. 17. Éthique et IA : le fa(me)ux dilemme du tramway 17
  18. 18. 2016 : Moral Machine par le MIT // Février 2020 : Universals and variations in moral decisions made in 42 countries by 70,000 participants Une réponse à donner collectivement 18
  19. 19. Autonomous Vehicles and Avoiding the Trolley (Dilemma): Vehicle Perception, Classification, and the Challenges of Framing Decision Ethics (septembre 2019) Le problème du trolley égare les réflexions sur l’éthique Source image 19
  20. 20. Powerful antibiotics discovered using AI (20/02/2020) AI Can Do Great Things—if It Doesn’t Burn the Planet (21/01/2020) Les systèmes d’IA peuvent aider à faire de grandes choses… 20
  21. 21. Adopt AI, think later : la méthode Coué au secours de l’intelligence artificielle (2 mars 2020) Attention à l’injonction « Adopt AI for everything » 21
  22. 22. Pourquoi le solutionnisme par l’IA est un grand danger (01/2020) Attention à ne pas céder au Solutionnisme par l’IA 22
  23. 23. Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir » (InternetActu // 09/2019) Excavating AI: The Politics of Images in Machine Learning Training Sets (Crawford K., Paglen T.) L’IA est une nouvelle ingénierie du Pouvoir 23
  24. 24. La reconnaissance faciale : un enjeu éthique mondial 24
  25. 25. Pour commencer, il faut mieux connaître les IA 1. 25
  26. 26. à droite : iCub, le robot qui agit et apprend comme un enfant à gauche : robot de Boston Dynamics légèrement bousculé Comment les IA apprennent ? 26
  27. 27. Formes d’apprentissage • empreinte et habituation • apprentissage par essai / erreur • apprentissage par l’action • apprentissage par observation / imitation • apprentissage par analogie / par transfert • apprentissage co-actif • apprentissage par instruction • méta-apprentissage 27
  28. 28. How Machines Learn: The Top Four Approaches to ML in Business (mars 2018) Types d’apprentissage • apprentissage supervisé (ex.: regression) • apprentissage non-supervisé (ex.: clustering) • apprentissage semi-supervisé • co-apprentissage • apprentissage hétéro-associatif • apprentissage auto-associatif • apprentissage par renforcement • apprentissage profond • apprentissage prédictif 28
  29. 29. (L’IA n’existe pas sans l’IH) 29
  30. 30. Sky Magic, Live at Mt Fuji Et aussi : agents, essaims, IA distribuées… 30
  31. 31. A Gentle Introduction to Transfer Learning for Deep Learning (décembre 2017) Apprentissage par transfert 31
  32. 32. Wikimedia Commons, CC BY-SA 4.0 By Youflavio (Own work) L’IA est prédictive. Elle modèl(is)e le futur. Nous devons être très vigilants avec cela. 32
  33. 33. Les IA peuvent-elles se tromper ? 33
  34. 34. Do neural nets dream of electric sheep? 34
  35. 35. Image CC by SA Les IA s’expliquent-elles ? Comprend-on comment elles fonctionnent ? 35
  36. 36. L’intelligence artificielle va-t-elle rester impénétrable ? [InternetActu 09/2016] L’IA s’explique-t-elle ? 36
  37. 37. Peut-on faire confiance aux IA ? 37
  38. 38. Faire confIAnce When to Trust Robots with Decisions, and When Not To // Vasant Dhar, 2016  38
  39. 39. Does YouTube’s A.I. favor Trump and fake news? A call for transparency. (nov 2016) Nous avons besoin d’algorithmes plus transparents 2016 39
  40. 40. (image cc by sa) Que manque-t-il aux IA ? 40
  41. 41. Que manque-t-il aux IA ? • une composante émotive • une capacité incarnée • un système de valeurs • l’attention, qui apporte une composante directionnelle aux comportements • des phases de rêve, de cognition libre désincarnée • la possibilité d’expérimenter le monde • la compréhension du sens commun 41
  42. 42. Image : NextDayBlinds.com À propos, toutes les IA n’ont pas à ressembler à des êtres vivants ! 42
  43. 43. Should Children Form Emotional Bonds With Robots? (Alexis C. Madrigal, dec 2017) Quels impacts sur le développement (de l’intelligence) des enfants ? 43
  44. 44. « Les deep fakes progressent à grands pas. » (juin 2019) Deep fakes vidéo : quand les IA servent à nous tromper 44
  45. 45. Dupée par une voix synthétique, une entreprise se fait dérober 220 000 euros [sept’ 2019] Deep fakes vocales 45
  46. 46. De quelle Éthique parle-t-on ? 2. 46
  47. 47. « L’éthique commence là où la réglementation s’arrête » 47
  48. 48. L’éthique se distingue de la conformité 48
  49. 49. À lire : Référentiel éthique et numérique du Cigref (octobre 2018) Plusieurs familles d’éthique (normative (de la vertu, conséquentialiste, déontologie), appliquée et meta-éthique) 49
  50. 50. « Innovation care » & éthique 50
  51. 51. « Algorithmes : l’éthique n’est pas toute la question. » (septembre 2018) Confiance : une IA responsable & une IA robuste et sûre 51
  52. 52. Thinking About ‘Ethics’ in the Ethics of AI (20 février 2020) Quelle éthique dans éthique+IA  ? 52
  53. 53. Sur quoi portent les questions d’éthique ? 3. 53
  54. 54. ∃ 7 questions initiales  Biais des algorithmes  Transparence des algorithmes  Suprémacie des algorithmes  La fabrique du faux  Les systèmes autonomes potentiellement létaux  Les systèmes autonomes de transport  Vie privée / Sûreté,Sécurité / Surveillance 54
  55. 55. Une prise de conscience qui arrive à point nommé 55
  56. 56. L’IA porte en elle les biais de ses concepteurs Laurence Devillers «
  57. 57. Dossier «Design de l’attention» par la Fing (2017–2019) EU should regulate Facebook and Google as ‘attention utilities’ (01/03/2020) Les abus de l’attention 57
  58. 58. Pour y voir plus clair sur les notions de transparence et d’explicabilité en IA (février 2020) Transparence & Explicabilité 58
  59. 59. Extrait de Principled Artificial Intelligence (janvier 2020) “Les principes regroupés sous ce thème énoncent des exigences selon lesquelles les systèmes d’IA doivent être conçus et mis en œuvre de manière à en permettre leur supervision, notamment par la traduction de leurs opérations en résultats intelligibles et par la mise à disposition d’informations sur le lieu, le moment et la manière dont ils sont utilisés.” 59
  60. 60. T+E : synonymes • interprétabilité, auditabilité, prédictabilité, • droit à l’information, consentement et usage éclairés, • notifications, reporting, • understandable AI, intelligibilité, • vérifiabilité, • responsabilité (accountability, liability, responsibility), • contrôle humain de la technologie, • effectivenness 60
  61. 61. Ouverture (data, algos) • l’ouverture des données et des algorithmes dans le domaine de l’IA est depuis longtemps un point acquis. • il s’agit également d’ouvrir de manière pro-active, c’est-à- dire produire collectivement des bases de données ouvertes (visages, postures, situations routières…). • l’ouverture des algorithmes est par ailleurs un préalable au principe de vérifiabilité (validation par des organismes tiers, certification…) 61
  62. 62. Droit à l’information • “right to explanation” au cœur du RGPD. • droit de savoir quels paramètres, quelle logique, quelles techniques et quelles informations personnelles ont été utilisées lors d’un processus de prise de décision effectué par des IA (ou des algorithmes en général). • pleinement utile à condition que les informations délivrées lors de son exercice soient intelligibles, et facilement accessibles. • design d’accès à l’information. 62
  63. 63. Principe de notification• quand une IA a été utilisée, ou quand elle est actuellement utilisée, la personne qui en fait l’objet doit en être informée. • possibilité de refuser un tel traitement. • demander à accéder à un être humain, et/ou d’obtenir l’assurance qu’un être humain est dans la boucle pour vérifier et éventuellement corriger le processus en cours. • possibilité d’apprécier (au sens de mesurer) les avantages de l’intervention IA (forme de pédagogie). • être prévenu quand on interagit avec une IA et non pas un humain. • design de la vigilance. 63
  64. 64. Human Rights in the Age of Artificial Intelligence [AccessNow, nov 2018] Ouverture des marchés publics “When a government body seeks to acquire an AI system or components thereof, procurement should be done openly and transparently according to open procurement standards. This includes publication of the purpose of the system, goals, parameters, and other information to facilitate public understanding. Procurement should include a period for public comment, and states should reach out to potentially affected groups where relevant to ensure an opportunity to input.” 64
  65. 65. Compte-rendu continu • que les organisations utilisant des systèmes d’IA informent régulièrement le public sur ces utilisations : comment les objectifs souhaités ont été atteints, comment ont été minimisés les risques, quelles erreurs / brèches / fuites / effets indésirables ont été découvertes et comment ont-elles été traitées ? • mécanisme de mise en œuvre de la Transparence et de l’Explicabilité, ET… • preuve de l’effectivité de ces exigences. 65
  66. 66. La transparence n’est pas toujours désirable When Transparent does not Mean Explainable (PDF, 3 pages) 66
  67. 67. Quelles réponses sont apportées ? 4. 67
  68. 68. 8+1 catégories de principes 68
  69. 69. Des principes mais très peu de recommandations et d’exemples 69
  70. 70. An Open Letter : Research Priorities for Robust and Beneficial Artificial Intelligence. [01/2015] Une lettre ouverte… Janvier 2015: à l’initiative du britannique Stuart Russel, spécialiste IA, une dizaine de chercheurs signent une lettre ouverte appelant leurs collègues à aller au-delà du simple objectif historique de la performance des IA. «Cette recherche est nécessairement interdisciplinaire, car elle implique à la fois la Société et l’Intelligence Artificielle. Elle s’établit de l’économie au droit et à la philosophie, de la sécurité informatique aux méthodes formelles et, bien sûr, au sein des diverses branches de l’IA elle-même. […] Trois sujets sont à traiter à court terme : l’impact de l’IA sur l’économie, les questions d’éthique et de droit, la robustesse des artefacts.» 70
  71. 71. «Google employees: We no longer believe the company places values over profits.» Une lettre ouverte… Novembre 2018 : à l’initiative de 11 employés de Google, des centaines d’employés de Google signent publiquement une demande d’abandon du projet DragonFly, un moteur de recherche facilitant la censure. “Many of us accepted employment at Google with the company’s values in mind, including its previous position on Chinese censorship and surveillance, and an understanding that Google was a company willing to place its values above its profits,” […] “After a year of disappointments including Project Maven, Dragonfly, and Google’s support for abusers, we no longer believe this is the case.” 71
  72. 72. « On cherche à éveiller la conscience éthique des développeurs et data scientists » (juin 2018) Un « serment d’Hippocrate » pour les data scientists 72
  73. 73. Julien de Sanctis, philosophie et éthique appliquées à la robotique interactive Ethics of Technology Needs More Political Philosophy (janvier 2020) Intégrer des philosophes dans les équipes 73
  74. 74. Disposer d’un·e Chief Ethics Officer 74
  75. 75. Promouvoir la formation dans des lieux spécifiques : les « CogLab » 75
  76. 76. Comment s’engager plus avant ? 76
  77. 77. Chartes, principes, bonnes pratiques… 77
  78. 78. https://www.declarationmontreal-iaresponsable.com/ Déclaration de Montréal pour le développement responsable de l’IA Source image: flikr IA responsable 78
  79. 79. Principes-clé  principe de bien-être  principe de respect de l’autonomie  principe de protection de l’intimité et de la vie privée  principe de solidarité  principe de participation démocratique  principe d’équité  principe d’inclusion de la diversité  principe de prudence  principe de responsabilité  principe de développement soutenable 79
  80. 80. Lignes directrices en matière d’éthique pour une IA digne de confiance, 8 avril 2019 80
  81. 81. Intelligence artificielle : des limites de l’éthique aux promesses de la régulation (18/04/2019) Un exercice difficile, entre éthique & régulation 81
  82. 82. Ethics guidelines for trustworthy AI (European Commission, 8 April 2019) Pour une IA digne de confiance  facteur humain & contrôle humain  robustesse & sécurité  respect de la vie privée et gouvernance des données  transparence  diversité, non-discrimination et équité  bien-être sociétal et environnemental  responsabilisation 82
  83. 83. À lire dans le Chapitre III: évaluation d’une IA digne de confiance Liste d’évaluation pour une IA digne de confiance 83
  84. 84. White Paper on Artificial Intelligence: a European approach to excellence and trust. (19/02/2020) Sortie du Livre blanc Europe IA 84
  85. 85. Lien vers la consultation Une consultation en cours jusqu’au 30 mai 2020 85
  86. 86. 4 points en guise de perspectives &. 86
  87. 87. 1. Réfléchir à l’intelligence des artefacts nous amène à réfléchir à notre propre intelligence, à la manière dont nous l’exerçons, à nos rapports aux autres, aux animaux, au monde… 87
  88. 88. 2. Mettre en place des principes éthiques concernant les données et les systèmes d’IA, et les suivre, peut constituer un un différenciant de marché. 88
  89. 89. 3. À l’échelle internationale, est actuellement ouverte (2019-2020) une occasion unique de convergence des choix éthiques, avant que les technologies et les usages nous mènent au fait accompli. 89
  90. 90. 4. À l’échelle de l’Humanité, cette même fenêtre d’opportunité est à saisir, tant que nous en avons encore le loisir et le temps de réfléchir collectivement à ce que nous voulons faire de nos outils. 90
  91. 91. Détails sur medium.com/@AymericPM L’impérieuse nécessité d’apprendre à mieux se connaître * 91
  92. 92. That’s all, folks ! Thx. contact : @AymericPM // www.nereys.fr 92
  93. 93. Docteur en Sciences Cognitives (entre autres) Aymeric Poulain Maubant @AymericPM https://medium.com/@AymericPM/ http://www.nereys.fr/ Aymeric.PoulainMaubant@nereys.fr 93
  94. 94. Retrouvez les références de cette présentation en fouillant ici et là sur : https://www.slideshare.net/aymeric https://medium.com/@AymericPM + Références complémentaires à suivre en bas de quelques pages 94

×