Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

« Gouvernance de l’Intelligence Artificielle » Intelligence Artificielle Quel enjeux pour les enterprises?

709 views

Published on

« Gouvernance de l’Intelligence Artificielle ». Intelligence Artificielle Quel enjeux pour les enterprises?.Le CIGREF publie les actes de son colloque « Gouvernance de l’Intelligence Artificielle » organisé « afin de partager différents points de vue d’experts sur les enjeux liés à l’intelligence artificielle dans les entreprises, que ce soient les opportunités qu’elle représente ou les risques sous-tendus »

Published in: Education
  • Be the first to comment

  • Be the first to like this

« Gouvernance de l’Intelligence Artificielle » Intelligence Artificielle Quel enjeux pour les enterprises?

  1. 1. Colloque CIGREF : Intelligence Artificielle... 2 Sommaire Colloque CIGREF « Intelligence Artificielle » Quels enjeux pour les entreprises ?  Intelligence Artificielle et Gouvernance de l’Entreprise Présentation par Bernard DUVERNEUIL Le colloque « Gouvernance de l’Intelligence Artificielle » Enjeux managériaux, juridiques, éthiques  Les objectifs du Cercle Intelligence Artificielle CIGREF Présentation par Konstantinos VOYIATZIS  Vers la « Robot-Humanité »... Présentation par Alain BENSOUSSAN  Table ronde « L’Intelligence Artificielle dans les grandes entreprises » Laurence DEVILLERS : L’interaction Homme-Machine... Les enjeux de gouvernance de l’Intelligence Artificielle : Françoise MERCADAL-DELASALLES Le deep learning et l’entreprise : Tony PINVILLE Intelligence Artificielle et prospective : Cécile WENDLING  Grand Témoin : Bernard STIEGLER Intelligence Artificielle et avenir du travail 3 3 5 7 7 11 11 14 15 23 30 34 41 41 Droit de propriété intellectuelle Toutes les publications du CIGREF sont mises gratuitement à la disposition du plus grand nombre, mais restent protégées par les lois en vigueur sur la propriété intellectuelle. Est autorisée la copie du titre et d’extraits de 500 caractères, suivis chacun de la mention « Source : ... » assortie de l’url de la publication CIGREF. Toute autre reprise doit faire l’objet d’une autorisation préalable auprès du CIGREF cigref@cigref.fr Retrouvez les extraits vidéos de chacun des intervenants à l’issue des comptes-rendus de leurs présentations...
  2. 2. Quels enjeux pour l’entreprise ? 3 Intelligence Artificielle et Gouvernance de l’Entreprise Dans la mission dont s’est doté le CIGREF pour son projet stratégique à 2020 : « développer la capacité des grandes entreprises à intégrer et maîtriser le numérique », intégrer et maîtriser le numérique, sont deux mots importants ! Nous avons la conviction que réussir le numérique dans le monde actuel, réussite cruciale pour le développement de notre économie, les grandes entreprises jouent un rôle fondamental. Il fallait qu’elles se saisissent de cette dimension numérique, d’où notre signature : « Réussir le numérique »! Au travers de ses groupes de travail, de ses groupes de réflexion, des différents évènements qu’il organise, le CIGREF accompagne au quotidien ses entreprises membres dans leur transformation ou leur transition numérique. Il s’efforce ainsi d’accroître leur potentiel d’innovation, et de contribuer au développement économique et social. Le CIGREF s’est doté d’un plan « CIGREF 2020 ». Il s’articule autour de sept axes structurants portant sur les principaux grands chantiers à mener pour aider les entreprises à réussir la transition numérique. Le Cercle Intelligence Artificielle a été créé cette année à l’initiative du cabinet Alain Benssoussan Avocats et de Konstantinos Voyiatzis, Administrateur du CIGREF et DSI d’EDENRED. Ce Cercle porte sur le thème de la gouvernance de l’intelligence artificielle dans les grandes entreprises. Il répond à plusieurs de nos ambitions présentes dans le plan stratégique « CIGREF 2020 », d’où la nécessité, pour le CIGREF, de travailler sur ce type de technologies et de dimensions nouvelles dans nos entreprises. Je voudrais citer en particulier trois axes de ce plan stratégique qui mettent en lumière les dimensions importantes de ce Cercle Intelligence Artificielle. Tout d’abord, l’axe recherche qui consiste à poursuivre l’anticipation et la compréhension du monde numérique. Avec la Fondation CIGREF, que nous avonscrééeen2008,nousavonsmenéunimportantprogrammeinternational de recherche en coopération avec 50 universités dans le monde, des plus prestigieuses, réparties en Europe, en Chine, en Corée, aux Etats-Unis. Bernard DUVERNEUIL Vice-Président CIGREF Contribuer au développement économique et social Un Cercle sur la Gouvernance de l’Intelligence Artificielle
  3. 3. Colloque CIGREF : Intelligence Artificielle... 4 L’intelligence artificielle s’inscrit parfaitement dans cette perspective, puisque le Cercle Intelligence Artificielle a permis de rassembler, autour d’une même table, des chercheurs, des entreprises, et des entrepreneurs. Deuxième axe stratégique, il fait le lien avec ce mot « entrepreneur », l’interaction avec l’écosystème. Cet axe tient à cœur au CIGREF. Il vise à pouvoir agir pour un écosystème dynamique et pérenne. En particulier, le CIGREF entend bien contribuer au soutien de l’innovation en France, notamment en renforçant les liens entre start-up et grandes entreprises. A titre d’illustration, nous organisons tous les ans une délégation CIGREF au CES de Las Végas, ce qui nous permet, etpermetauxentreprisesmembres,d’identifieretdemieux appréhender les prochaines tendances, les prochaines ruptures technologiques avec évidemment l’objectif de contribuer à cette innovation au sein des entreprises. Le troisième axe est l’éthique. Le CIGREF a toujours accordé une importance cruciale à l’éthique, pour promouvoir un usage éthique et responsable du numérique, notamment dans le traitement des données, mais pas seulement. Cette attention à la dimension éthique s’est matérialisée en particulier avec la mise en place d’un site internet : « Questionner le Numérique ». Ces deux dernières années, nous avons vu grandir le nombre de contributions sur ce site concernant l’intelligence artificielle, d’où également ce colloque. Lien entre start-up et grandes entreprises Promouvoir un usage éthique et responsable du numérique Le programme s’est intéressé aux impacts de la transformation numérique sur les entreprises, mais aussi sur la société. Nous en avons partagé les résultats lors d’un colloque sur ce programme de recherche. Ceci témoigne de l’ambition qui est la nôtre, de collaborer avec le monde scientifique et académique pour mieux comprendre et anticiper le monde de demain à l’ère du numérique.
  4. 4. Quels enjeux pour l’entreprise ? 5 Le CIGREF a fait le choix d’accueillir des intervenants de tous horizons : dirigeants, startups, chercheurs... afin de partager différents points de vue sur les enjeux de l’intelligence artificielle dans les grandes entreprises et les opportunités que l’intelligence artificielle représente pour elles, sans oublier les risques sous-tendus. Les trois objectifs de ce colloque  Faire un état des lieux rapide des applications de l’intelligence artificielle dans les grandes entreprises ;  Formuler les grandes questions qui se posent et qui vont venir pour faire de l’intelligence artificielle une opportunité, toujours au service de l’humain ;  S’interroger sur les impacts de ces nouveaux enjeux pour l’entreprise elle-même et son écosystème. Différents points de vue sur l’Intelligence Artificielle Le colloque « Gouvernance de l’Intelligence Artificielle » Enjeux managériaux, juridiques, éthiques
  5. 5. Colloque CIGREF : Intelligence Artificielle... 6 Restitution des axes clés du Livre Blanc « Gouvernance de l’intelligence artificielle dans les grandes entreprises : Enjeux managériaux, juridiques et éthiques » par les Présidents du Cercle Intelligence Artificielle :  Konstantinos VOYIATZIS, DSI EDENRED, Administrateur du CIGREF  Alain BENSOUSSAN, Avocat en droit des technologies avancées Grand témoin  Bernard STIEGLER, Philosophe, docteur de l’École des Hautes Études en Sciences Sociales : « Dans la disruption : Comment ne pas devenir fou ? » « La Société automatique : l’avenir du travail » Table Ronde « L’Intelligence Artificielle dans les grandes entreprises : état des lieux sur les pratiques, les opportunités et les réflexions éthiques et juridiques à mener », animée par Frédéric SIMOTTEL  Laurence DEVILLERS, CERNA, Professeur Paris-Sorbonne 4/LIMSI-CNRS  Françoise MERCADAL-DELASALLES, Société Générale, Administratrice du CIGREF, Membre du Conseil national du Numérique TonyPINVILLE,CEOd’Heuritech,Start-upspécialiséedansledeeplearning  Cécile WENDLING, Responsable de la prospective pour le groupe AXA. Livre Blanc « Gouvernance de l’Intelligence Artificielle dans les entreprises » Quel peut être le rôle de l’Intelligence Artificielle dans l’entreprise du futur ? L’IA va t-elle rendre les organisations plus intelligentes ? Telles sont les grandes questions qui ont animé les grandes entreprises, les membre du Cercle IA, avec pour objectif d’analyser et d’anticiper les impacts de cette révolution en cours et à venir. Le CIGREF souhaite sensibiliser ses entreprises aux enjeux présents et futurs de l’IA. La vision prospective est importante car elle doit permettre d’interroger l’évolution des compétences nécessaires au management de l’entreprise d’ici à 2020, mais aussi l’évolution de la règlementation face aux nouveaux enjeux de l’IA concernant par exemple la notion de responsabilité juridique de ces avatars, que le Cabinet Alain Bensoussan a investigué. Le Livre Blanc
  6. 6. Quels enjeux pour l’entreprise ? 7 Si nous parlons de l’IA aujourd’hui, c’est parce qu’elle est dans un âge d’or. C’est dû notamment à l’intérêt croissant que les géants du web portent sur les enjeux du big data. Les premiers investisseurs dans l’IA dans le monde sont les pure players de l’internet et les grands acteurs du logiciel. Dans la Silicon Valley, les startups travaillant aujourd’hui sur des projets d’intelligence artificielle fusionnent de toute part. Malgré cet engouement récent, les entreprises françaises communiquent peu sur les activités en matière d’intelligence artificielle. Pourtant, cela ne veut pas dire que l’intelligence artificielle n’existe pas dans leurs organisations, bien au contraire. De nombreux progrès ont été faits dans la prédiction de la fraude, l’assistance virtuelle de la reconnaissance faciale, textuelle et vocale, et l’analyse prédictive. Nous voyons peu à peu des applications se développer au centre des grandes entreprises, grâce notamment aux partenariats des grands groupes avec les startups qui se multiplient autour des projets d’intelligence artificielle. Les objectifs du cercle Intelligence Artificielle du CIGREF consistaient à : - faire un état des lieux sur les applications et les projets de l’intelligence artificielle en développement dans les grandes entreprises, - quantifier les bénéfices qu’elles en tirent et aussi les risques et les freins qui ont déjà été identifiés. Il ne s’agissait pas seulement de faire un état des lieux, mais aussi de participer à la création d’une communauté de partage et d’échange des grandes entreprises pour se préparer à cette révolution. L’âge d’or de l’Intelligence Artificielle Les objectifs du Cercle Intelligence Artificielle CIGREF Après avoir remercié Maître Alain Benssoussan pour l’expertise qu’il a apportée cette année au sein du Cercle Intelligence Artificielle, je vais exposer les grandes lignes de nos travaux, les enjeux et les défis liés à l’intelligence artificielle et partager avec vous quelques conclusions. L’Intelligence Artificielle est un sujet qui fait beaucoup parler depuis ces dernières années. Contrairement à ce que nous pourrions imaginer, l’IA est déjà présente depuis plusieurs décennies dans notre quotidien. Elle intègre de plus en plus de logiciels et de services, sans même que nous en soyons conscients. Konstantinos VOYIATZIS Co-Président du Cercle Intelligence Artificielle CIGREF DSI EDENRED Des partenariats startups grands groupes
  7. 7. Colloque CIGREF : Intelligence Artificielle... 8 Le deuxième objectif, quantifier les enjeux de gouvernance des liens dans les grandes entreprises a mis un focus sur les enjeux managériaux et les enjeux juridiques et éthiques. Cela fait sens pour le CIGREF car il a pour mission de se positionner comme un carrefour d’échange et de partage autour des sujets liés à la transition numérique. Ce qui suppose de s’intéresser en profondeur aux prochaines tendances technologiques. Nous avons déjà esquissé, lors d’un colloque en mai dernier, le « design de l’entreprise 2020 », tel qu’il résulte des travaux de la Fondation CIGREF. Alors, pourquoi l’intelligence artificielle est-elle un sujet d’actualité et d’avenir ? Il faut déjà noter que le sujet est bien présent dans les grandes entreprises. Il peut rester théorique, mais il peut aussi faire l’objet de premières expérimentations, concernant notamment les algorithmes prédictifs. L’intelligence artificielle ne va pas fondamentalement tout bouleverser dans les entreprises. Elle va plutôt augmenter les performances en automatisant ou en perfectionnant certains process. Je voudrais donner quelques arguments pour montrer que l’intelligence artificielle ouvre énormément d’opportunités pour les entreprises. Elle permet déjà de mieux répondre aux exigences du big data. L’IA repose en effet en grande partie sur la fouille et l’analyse des données à partir desquelles elle pourra elle-même apprendre. Les futurs numériques sont décrits dans le livre éponyme que nous avons publié récemment. L’idée, pour une association comme le CIGREF, est de pouvoir travailler avec ses membres, toujours en avance de phase sur l’état des lieux et les perspectives liées à un sujet en particulier. Il était donc important pour nous de sensibiliser nos entreprises aux enjeux présents et futurs de l’intelligence artificielle. Pour s’emparer de ce sujet si complexe, le Cercle a invité de nombreux acteurs extérieurs se positionnant sur les marchés de l’intelligence artificielle : des experts, des chercheurs, des startups, des fournisseurs... Des équipes chargées du sujet de l’intelligence artificielle dans les grandes entreprises ont également largement contribué à enrichir nos réflexions. Notamment avec des exemples concrets comme celui de l’évolution du cognitif computing ou encore sur le scénario d’émergence et l’impact sur les stratégies des entreprises. Enjeux managériaux, juridiques et éthiques Pourquoi l’IA est-elle un sujet d’actualité et d’avenir ? L’intelligence artificielle ouvre énormément d’opportunités...
  8. 8. Quels enjeux pour l’entreprise ? 9 L’IA est une alliée précieuse dans le domaine de la sécurité informatique et la détection de la fraude. L’IA augmente l’expertise humaine. Elle permet d’optimiser les services, elle permet d’améliorer les connaissances client, la prise de décisions, mais aussi d’optimiser les processus opérationnels. Enfin, l’IA permet d’aider à faire des découvertes dans certaines industries pharmaceutiques. Certaines plateformes d’IA ont été reconnues pour avoir proposé de nouvelles pistes thérapeutiques, voire de nouvelles molécules, efficaces dans le traitement du cancer. Parmi les conclusions issues de nos réflexions, nous avons vite constaté qu’il y a très peu de budgets dédiés aux projets d’intelligence artificielle. Il ne faut donc pas hésiter à affecter des budgets spécifiques pour l’IA qui devrait pouvoir se développer rapidement avec une vraie stratégie d’entreprise. Il ne faut pas oublier que l’IA va aussi modifier complètement les structures IT. La puissance de calcul, liée à l’exécution des algorithmes d’apprentissage, nécessite de passer des architectures séquentielles à des architectures parallèles et distribuées. Cette transformation technique des architectures est à anticiper. Enfin, l’IA est évidemment un sujet de business. Il est donc important pour l’IT d’être un support, voire un pilote des nouveaux business models. Mais pour que ces opportunités deviennent réalité et que nous en tirions les fruits, il faut traiter un certain nombre des enjeux de gouvernance. Nous ne devons pas négliger la question des cultures d’entreprises. Toutes nos entreprises n’ont pas la même maturité. Il est certain que la transversalité dans la gestion des données et l’agilité de nos organisations sont des questions cruciales pour construire une bonne gouvernance de l’IA. Enfin, des questions juridiques et éthiques sont incontournables pour que la révolution intelligente se fasse au service de l’homme. Nous avons par exemple développé l’idée d’une éthique by design des systèmes intelligents, afin de prendre en compte le plus en amont possible les différentes problématiques éthiques liées notamment à la protection des données personnelles. L’IA, une alliée qui augmente l’expertise humaine Encore trop peu de budgets dédiés aux projets d’IA... Pour que la révolution intelligente se fasse au service de l’homme
  9. 9. Colloque CIGREF : Intelligence Artificielle... 10 Une autre conviction, c’est d’attirer et de valoriser de nouveaux talents. La France est leader dans le domaine des mathématiques et regorge de talents dans l’ingénierie et la recherche scientifique. Les grandes entreprises ont besoin de ces compétences d’excellence. Elles doivent les valoriser dans les nouveaux métiers liés à l’intelligence artificielle. Une autre conclusion de nos travaux est le besoin de développer aussi le travail prospectif au sein des entreprises, pour mieux orienter les stratégies à partir des différents scénarios possibles d’émergence de l’IA. Enfin, il faut désiloter les métiers, et développer une culture d’API pour nos plateformes. Valoriser de nouveaux talents dans les métiers de l’IA... En résumé, trois convictions émergent de ce travail. - L’IA fait partie intégrante de l’évolution des modèles d’affaires dans l’entreprise numérique du futur. - L’IA ouvre un espace innovant immense pour les grandes entreprises qui peuvent saisir cette opportunité pour améliorer considérablement leur service, être plus pro-actives, et appuyer leurs décisions. - Mais cette intelligence dépendra également de la manière dont le management s’adaptera aux nouveaux enjeux. Cela suppose d’anticiper le développement technologique et l’évolution des compétences, sans oublier les enjeux liés à la responsabilité juridique et éthique. Trois convictions émergent...
  10. 10. Quels enjeux pour l’entreprise ? 11 Nous allons changer de monde. Nous serons toujours au coeur, avec l’informatique, mais nous entrons dans une nouvelle civilisation que j’ai appelée la « robot-humanité », où les hommes et les robots devront apprendre à vivre, où plutôt à survivre ensemble. Je vous propose dans ces quelques minutes, une réflexion en interrogation sur ce que pourrait être ce nouveau monde. Deux phases : depuis 2007, j’essaie de prédire en droit ce qui va se passer. - La première phase : il me semble que de 2016 à 2020, nous allons aller vers une nouvelle organisation, notamment dans les grandes entreprises. - La seconde phase, 2020-2025, sera vraiment le début de la « robot-humanité ». La première phase est marquée par ce livre blanc pour une nouvelle technologie qu’est l’intelligence artificielle. Mais ce n’est pas qu’une technologie. Cette fois-ci, en Europe, comme aux Etats-Unis, il me semble que le monde va être gouverné par des algorithmes, que nous entrons dans un système de liberté assistée par algorithme. Noussommesenprésenced’unenouvelleformedecivilisation.Regardez le GPS. Vous avez abandonné la carte et la boussole. Un élément dans l’ordinateur de bord et c’est le GPS qui vous conduit. Parfois même, vous dites quelques mots à la personne qui vous parle. C’est le début, me semble-t-il d’une nouvelle vie où l’esclavage technologique est l’enjeu de la régulation. Cette nouvelle société est totalement organisée par les algorithmes dont nous ne savons pas qui les a conçus, qui a défini les règles, quels en sont les risques. Hommes et Robots devront apprendre à vivre ensemble ! Vers la « Robot-Humanité »... J’ai toujours eu un attachement à l’informatique, à la direction des systèmes d’information. J’ai débuté en 1978 sur Informatique et Libertés. En informatique, on me regardait un peu bizarrement, en disant que ce n’était pas possible que l’on puisse encadrer cette technologie si avancée. Nous voyons que 39 ans après, nous sommes toujours là, l’informatique est toujours au coeur du numérique. Et aujourd’hui, après tant d’évolutions, peut-êtrequelquechosed’unpeuplusimportantquen’apul’êtrelarévolution des télécommunications, la révolution de l’internet : l’intelligence artificielle ! Alain BENSOUSSAN Co-Président du Cercle Intelligence Artificielle Avocat en droit des technologies avancées
  11. 11. Colloque CIGREF : Intelligence Artificielle... 12 Comment souligner, dans les grandes entreprises, la nécessité d’une régulation pour avoir une intelligence artificielle coordonnée avec les enjeux des grandes entreprises ? Regardez une société « télé-organisée » : télésurveillance, dans le domaine de la sécurité. Téléguidage dans le domaine des transports, téléopération dans celui de la santé, télésuggestion dans le domaine de la culture, et téléorientation pour celui de la consommation... Cette nouvelle régulation doit être organisée dans les grandes entreprises. Cette période, que j’ai appelée « l’esclavage technologique », période où nous acceptons, est le plus prégnant des esclavages. C’est-à-dire, celui que nous partageons, parce qu’il y a un avantage compétitif (nous le voyons bien avec le GPS, nous le voyons bien avec la télésurveillance, et les téléopérations...). Ces robots logiciels vont migrer en masse dans la période de 2016-2020. Nous allons passer d’un monde où ces Robots Logiciels vont continuer à se développer, qu’ils soient en interface bot ou en interface vocale, vers des robots physiques. Cela entrainera une nouvelle modification. Ce sera vraiment le début de la Robot-Humanité, en mettant l’intelligence artificielle à l’intérieur des robots humanoïdes ou des robots voitures qui décideront pour nous d’un certain nombre d’actions. Dans une société « télé-organisée »... De « l’esclavage technologique » à la Robot-Humanité Des robots logiciels apparaissent. Des robots journalistes : il existe des articles, aujourd’hui, signés par des robots, que nous ne distinguons plus au sens de Turing. Des robots médecins, qui sont supérieurs à leurs collègues médecins. Et comment apprécier, dans ces cas-là, l’erreur. L’erreur robot doit- elle être du même niveau que l’erreur humaine ? Sachant que pour la détection de certains cancers, le robot logiciel Botson, représente une erreur sur dix alors qu’il y a une erreur sur deux pour le médecin. Robots avocats... c’est tous les jours que nous voyons un article disant : « Ubérisez les avocats ». C’est un souhait, mais ils n’y arriverons pas ! Comment apprécier l’erreur des « Robots Logiciels » ?...
  12. 12. Quels enjeux pour l’entreprise ? 13 Le livre blanc « Gouvernance de l’Intelligence Artificielle dans les entreprises, enjeux managériaux, éthiques, juridiques » témoigne de l’introduction de l’intelligence artificielle dans les grandes entreprises, des stratégies qu’elle commence à définir. Ce colloque veut montrer qu’il est nécessaire d’organiser l’intelligence artificielle faible, robots logiciels, et demain robots physiques généralisés, pour peut-être conjuguer au temps présent l’intelligence artificielle de manière humaine. Conjuguer l’Intelligence Artificielle de manière humaine...
  13. 13. Colloque CIGREF : Intelligence Artificielle... 14  Cécile WENDLING, Responsable de la prospective pour le groupe AXA  Laurence DEVILLERS, CERNA, Professeur Paris-Sorbonne 4/LIMSI-CNRS  Tony PINVILLE, CEO d’Heuritech, Start-up spécialisée dans le deep learning  Françoise MERCADAL-DELASALLES, Société Générale, Administratrice du CIGREF Membre du Conseil national du Numérique Table Ronde L’Intelligence Artificielle dans les grandes entreprises Etat des lieux sur les pratiques, les opportunités et les réflexions éthiques et juridiques à mener Animée par Frédéric SIMOTTEL
  14. 14. Quels enjeux pour l’entreprise ? 15 Nos buts ne sont pas de la science-fiction mais bel et bien des sujets d’exploration de la modélisation des émotions sur les machines. C’est actuellementunsujetderecherchedenombreuxchercheursdeparlemonde. Je travaille beaucoup avec la société Softbank (anciennement Aldebaran Robotics), sur le robot Pepper et sur NAO. Nous cherchons à doter les machines qui nous entourent de la capacité à détecter nos émotions et de leur donner une « empathie artificielle ». Plus un robot semblera compréhensif et convivial, plus il sera facilement adopté comme compagnon par un enfant ou une personne âgée. Au LIMSI, Nous avons mis au point un système informatique qui permet à un robot, comme par exemple Nao, de reconnaître, principalement dans les caractéristiques de la voix, mais aussi grâce aux rires et sourires de son interlocuteur, des émotions, et d’adapter son comportement en conséquence. Nous avons déjà des démos en ligne avec NAO. Doter les machines d’une « empathie artificielle »... L’interaction Homme-Machine... Je travaille en recherche au LIMSI, laboratoire du CNRS à Orsay, sur l’interaction homme-machine. Mes recherches portent plus particulièrement sur la détection des émotions dans la parole, ainsi que dans l’expressivité du visage pour mieux interagir avec les robots. Nous créons des systèmes de dialogue fondés sur des indices linguistiques (ce que l’on dit) et paralinguistiques (la façon de le dire) pour des robots sociaux empathiques. Ces systèmes vont calculer des informations sur le comportement de la personne, ses émotions, ce qu’elle dit et en déduire des intentions, un profil de la personne, afin de pouvoir répondre, de façon particulière, à chacun. Le deep learning est considéré comme l’avancée opérationnelle majeure de l’intelligence artificielle. Cette technologie de type réseaux de neurones repose sur la capacité d’apprendre à partir de données brutes, ce sont des modèles que j’ai utilisés dans ma thèse pour la reconnaissance de la parole. Par rapport aux premiers réseaux de neurones, l’apprentissage de type deep learning est fait sur un grand nombre de couches cachées, les calculs sont parallélisésetlescouchescachéessontinitialiséespardesméthodesditesnon supervisées. Ces optimisations ont apporté des améliorations importantes des performances des systèmes par rapport aux réseaux de neurones des années 85-90. Certes les algorithmes ont été améliorés, mais les modèles sont toujours de type boites noires, c’est-à-dire qu’on ne peut pas tracer les décisions des systèmes. Laurence DEVILLERS CERNA, Professeur Paris-Sorbonne 4 LIMSI-CNRS Les couches cachées de l’apprentissage type deep learning...
  15. 15. Colloque CIGREF : Intelligence Artificielle... 16 Nous ne savons pas non plus quelles données sont utilisées pour l’apprentissage, ni quel type d’erreurs peut faire ce genre de système qui apprend de façon très différente d’un humain. Prenons un exemple un système construit par Google pour la reconnaissance d’animaux, enlevons des pixels de l’œil d’un lion, l’humain sait toujours qu’il s’agit d’un lion alors que la machine ne le saura plus. Par contre, elle pourra générer des formes et dire : « Ca, c’est un animal », l’humain ne verra rien. Les acteurs de la communauté scientifique en apprentissage machine ont bien pris conscience des enjeux et travaillent sur des outils pour vérifier la robustesse de ces algorithmes d’apprentissage. Je ne vois pas de consentement avisé, éclairé de la part de nous tous qui fournissons ces données. C’est un sujet compliqué, économique, je suis bien d’accord. C’est un sujet qui, pour moi, est extrêmement important. Il va falloir parler d’éthique, de régulation, c’est un sujet actuel important au niveau mondial. Il y a quatre leviers très importants sur l’éthique qui vont être : - Premièrement, éduquer sur l’éthique numérique : les chercheurs, les ingénieurs, les juristes, et le grand public. D’où viennent ces données, comment elles sont capturées, quelle est la traçabilité, qu’est-ce qu’un système sait expliquer sur les connaissances qu’il a apprises. - Deuxièmement, il va falloir trouver des règles explicites que nous voudrions mettre dans ces systèmes. - Troisièmement, nous sommes en train de nous munir d’outils informatiques pour vérifier que ces règles sont utilisées ou pas. Par exemple, l’anonymat. Est-ce que nous anonymisons vraiment les données ? - Quatrièmement, se munir de règles juridiques en cas de non-respect de ces règles. Nous travaillons sur les 3 premiers leviers. Robustesse des algorithmes et enjeux de l’apprentissage machine... L’importance de parler éthique, 4 leviers... Nous avons parlé d’Intelligence Artificielle, et jamais de données. C’est quelque chose d’incroyable ! Parce que la vraie différence entre l’Intelligence Artificielle symbolique d’avant et l’Intelligence Artificielle du deep learning c’est quoi ? C’est qu’avant, nous avions des experts qui faisaient des règles, et maintenant, des connaissances de surface (corrélations entre mots) sont extraites automatiquement à partir de grande quantité de données. Vous imaginez bien que cela dépend des données que nous prenons ! Quelles sont les vérifications sur ces données ? D’où viennent ces données ? C’est également une question éthique. La plupart des grands groupes (GAFA) se disent qu’ils vont améliorer les modèles à partir de nos données. Nos données sont ponctionnées gratuitement. Vos données, c’est de l’argent. L’IA du deep learning : une grande quantité de données !
  16. 16. Quels enjeux pour l’entreprise ? 17 Mes recherches sur les machines émotionnelles nécessitent de se préoccuper d’éthique. Ces machines empathiques avec lesquelles nous allons communiquer pourraient avoir une incidence forte sur le comportement des humains, par exemple par trop d’attachement ou des confusions entre le vivant et l’artificiel. Une personne en face d’un robot n’est pas forcément consciente des capacités réelles du robot. Même si nous le lui disons, elle peut projeter sur la machine des intentions. Cet anthropomorphisme fait que nous prêtons des intentions à la machine. Ce sont des facteurs extrêmement importants à prendre en compte pour imaginer ce que pourraient faire ces systèmes intelligents autonomes. Savoir s’il faut brider ou pas cette autonomie, jusqu’où nous allons... sont des questions de société importantes. Importance de l’anthropomorphisme sur la prise en compte des systèmes intelligents En 2016, la plus importante organisation savante mondiale sur le numérique, l’Institut des Ingénieurs Electriciens et Electroniciens (IEEE), a lancé une initiative mondiale sur l’éthique des systèmes autonomes. Une première version d’un rapport sera disponible pour toute la communauté en décembre 2016. Une grande communauté de chercheurs et industriels participe à la rédaction de ce rapport. L’idée est d’avoir une version consensuelle avec le plus grand nombre de participants et d’embarquer le plus possible d’industriels et de chercheurs de toutes disciplines : philosophes, neuroscientifiques, informaticiens, roboticiens et juristes. Je pense qu’il faut bien comprendre qu’il est extrêmement important de participer à ces initiatives. Une deuxième version, sur laquelle nous travaillons, sera disponible dans l’année qui suit. Il y a pour l’instant beaucoup d’anglo-saxons et très peu de dirigeants industriels français présents dans cette communauté. Il est important d’adhérer le plus possible à ce genre d’initiatives. Il faut faire attention à tous les discours très alarmistes du transhumanisme, et souvent des médias, qui laissent planer le doute d’une super-intelligence de l’IA. Les robots sont des machines qui n’ont rien d’humain, qui ne font que simuler des comportements. L’IA, c’est de l’apprentissage par simulation. Un robot n’est pas capable de créer une œuvre d’art. Il crée par imitation : en dégradant, en changeant, en inversant, ou aléatoirement... Il n’y a pas de conceptualisation, pas de motivation derrière ce type de création. Bientôt un rapport sur l’éthique des systèmes autonomes L’IA, c’est de l’apprentissage par simulation
  17. 17. Colloque CIGREF : Intelligence Artificielle... 18 Les machines sont des objets sans conscience, sans émotion, sans motivation propres. Les assistants vocaux embarqués sur les robots vont nous permettre de dialoguer avec les machines. Pour l’instant, lorsque vous parlez à SIRI, il n’est pas très émotionnel, il fait des blagues de temps en temps, mais il ne comprend rien et n’a pas de mémoire de dialogue. Il n’enregistre pas du tout un historique de l’interaction. Ceci va être différent très bientôt. Nous travaillons beaucoup sur les réponses empathiques. Vous aurez un robot assistant qui pourra vous répondre de façon empathique quand vous lui parlerez. Bientôt, nous allons être devant ces machines-là. Il faut donc vraiment éduquer les gens. Maintenant, si les données ne sont pas terribles, ces systèmes d’apprentissage ne feront pas de miracles. L’apprentissage est de type une boite noire ; des calculs parallélisés, distribués comme tous les réseaux de neurones le font depuis 50 ans. Ce que nous pouvons connaître, ce sont les entrées et sorties des systèmes. Nous ne parlons pas assez d’évaluation et de benchmark pour ces systèmes. La vraie rupture technologique est que la machine puisse apprendre par elle-même à partir de l’environnement réel et de ses échanges avec les personnes. L’apprentissage est dit incrémental, c’est-à-dire que la machine va, à partir de ce qu’elle perçoit autour d’elle, sans qu’un ingénieur lui donne les données, adapter ses connaissances. C’est un apprentissage de la machine toute seule. Elle apprend en continu. C’est une vraie rupture. Bientôt des réponses empathiques chez les robots assistants ! La vraie rupture technologique est l’apprentissage incrémental... JefaiségalementpartiedelaCommissiond’éthiquefrançaisesurlenumérique qui s’appelle la CERNA. Elle dépend d’Allistene, qui est le regroupement entre CNRS, INRIA, grandes écoles, Télécom, Universités, etc. pour lequel nous sommes plus d’une vingtaine de chercheurs à réfléchir à tous ces problèmes d’éthique du numérique. Nous avons rendu en 2014 un rapport Éthique de la recherche en robotique, rapport de la CERNA, 2014 (Raja Chatila, Max Dauchet, Laurence Devillers, Jean-Gabriel Ganascia, Alexei Grinbaum, Catherine Tessier). Je travaille aussi sur le deep learning avec une start-up. Je n’ai pas l’impression de faire partie des geeks. Je participe à beaucoup de projets avec des industriels. Le deep learning ne résout pas tout. Ce n’est pas une rupture, c’est une amélioration notoire de la capacité de calcul, et la gestion d’un grand nombre de données. Des chercheurs travaillent sur l’éthique du numérique
  18. 18. Quels enjeux pour l’entreprise ? 19 La vraie rupture technologique, est que dès lors que nous allons faire ces machines capables d’apprendre toutes seules à partir d’informations qu’elles vont capturer auprès d’autres humains, auprès d’autres machines, dans le monde réel, en percevant et en interprétant des informations de l’environnement. Comment allons-nous contrôler ce qu’elles modélisent ? Il faut que la réflexion éthique précède la régulation. C’est-à-dire que nous réfléchissions aux valeurs morales que nous souhaiterions mettre dans une machine, quand elle va fonctionner, ce qu’elle devra suivre. Je prends un exemple très simple, la voiture autonome. Son éthique, c’est le code de la route. Si elle ne connait pas le code de la route, elle ne pourra pas rouler en faisant attention aux autres voitures. La réflexion éthique doit précéder la régulation Prenons le cas d’un robot dans le cas de l’assistance aux personnes âgées, qui est la thématique sur laquelle je travaille avec Aldebaran-robotics. En sortie d’usine, les performances du robot sont vérifiées dans différentes circonstances. La vraie rupture, c’est que le robot va être capable d’apprendre en fonction de ce que lui dit la personne, de certaines informations perçues, de son histoire, de ses habitudes, etc. Il va adapter ses modèles internes, avec des algorithmes de reinforcement learning ou encore d’autres algorithmes. Comment vérifie-t-on que la machine apprend toujours dans le bon sens ? Vous avez tous entendu l’histoire de Microsoft avec Tay. Tay était un agent assistant vocal sur Twitter. Des internautes mal intentionnés lui ont appris à tenir des propos tendancieux. L’assistant vocal disait au départ : « J’aime les humains ». En 48h, son discours s’était changé en propos racistes et nazis. Pourquoi ? Parce qu’il apprenait sans éducation, sans aucun contrôle. Pour les robots, les règles de la société sont les règles morales à apprendre. Des premières règles pourraient être implémentées dans les robots sortant d’usine. Ensuite, capables d’apprendre dans la vraie vie, au contact des humains, nous voudrions qu’ils puissent apprendre la façon dont la société fonctionne. C’est très ambitieux. Larégulation,c’estlarégulationjuridique.C’estcequejemettaisenquatrième levier tout à l’heure. Quelles lois doit-on mettre en cas de non-respect de ces règles éthiques ? D’autre part, des outils informatiques sont nécessaires pour vérifier que les machines autonomes suivent les concepts de règles éthiques que nous voudrions mettre. Comment vérifier que la machine apprend dans le bon sens ? Que les robots apprennent les règles de la société...
  19. 19. Colloque CIGREF : Intelligence Artificielle... 20 Je vous donne quelques exemples : - « Tu ne divulgueras pas mes données à n’importe qui ». Comme utilisateur d’un robot, je voudrais avoir une certaine intimité avec ce robot et qu’il ne puisse pas donner à tout le monde mes données, sans que j’en sois consciente. - « Tu pourras oublier certaines de mes données ». Cela fait partie de la privacy aussi. Une machine enregistre en continu. Alors comment faire pour lui faire oublier certains concepts ? - « Tu seras loyal et tu pourras expliquer tes choix ». Il est important de construire une machine loyale, transparente. Nous ne serons pas tous capables de savoir ce qui est codé dans la machine. Mais l’idéal est d’éviter un trop grand fossé entre ceux qui travaillent dans le codage des machines et ceux qui vont les utiliser. La population est vieillissante dans un grand nombre de pays industrialisés. D’après l’INSEE en 2020, 10% de la population en France aura plus de 75 ans. Les robots seront des assistants, surveillant 24h/24h, complémentaires des aides qui viennent à domicile, fort utiles très bientôt. Ils ne seront pas là pour remplacer un humain, ni d’ailleurs les animaux de compagnie. La Corée, le Japon, La Chine, les USA… sont très impliqués dans la robotique, l’Europe également. Les premiers robots sociaux seront bientôt parmi nous. Il est urgent de se préoccuper des règles éthiques que nous souhaitons mettre dans ces robots, qui ne seront d’ailleurs pas les mêmes suivant les cultures. Les machines sociales, qui vont interagir avec nous, ne devront pas être considérées comme des personnes. Exemples de règles éthiques Des robots sociaux seront bientôt parmi nous ! Quelles règles éthiques pour eux ? Les rapports aux machines sont différents d’une culture à l’autre (entre le Japon et la France par exemple) et sont très liés aux mythes que nous portons dans la société. En Europe, le mythe du Golem, Prométhée, Pygmalion ont nourri la Science-Fiction, les histoires et le cinéma. Nous avons plutôt peur des machines. Au Japon, c’est le contraire. « Astro, le petit robot », ou d’autres mangas ont baigné l’enfance de grands nombres de japonais. Les robots sont des gardiens de l’humanité : de gentils soldats ou policiers ou des super-héros. Au Japon, il y a une relation à la robotique très différente aussi de ce que nous envoient les médias. Je pense que c’est important de regarder autour de nous comment évoluent les choses. Des approches culturelles différentes
  20. 20. Quels enjeux pour l’entreprise ? 21 Dans la vie de tous les jours, quels robots sociaux voit-on pour l’instant ? Les robots Paro sont déjà utilisés en thérapie dans des maisons de retraite (EHPAD). Les robots Da Vinci pour la chirurgie, sont effectivement très appréciés, même s’ils sont encore très chers. Nous avons encore peu de robots qui arrivent dans notre quotidien. Je suis d’accord avec Alain Benssoussan, il faut s’en préoccuper maintenant parce que d’ici 2020-2025, les robots sociaux seront dans notre quotidien. Aux USA, le robot conversationnel Jibo, sera commercialisé à partir de 2017. Il ne se déplace pas, mais il s’occupe de votre agenda, c’est un majordome à la maison. Il y aura des NAO et des Pepper. Pepper est déjà vendu pour les particuliersauJapon,ilyena1000dansdesfoyersjaponais.Pourl’instant,ilne fait pas grand-chose, mais dès lors que nous allons rajouter des informations, des compétences, des capacités sur ces machines, il est possible d’imaginer un marché qui va se développer dans les grandes entreprises, mais aussi chez nous, dans nos foyers pour la robotique personnelle individuelle. L’assistance aux personnes âgées, dépendantes ou handicapées, ou l’assistance pour l’éducation, sont des domaines qui vont être vraiment importants. D’ici 2020-2025 les robots sociaux seront dans notre quotidien La machine n’est pas plus intelligente que l’homme, par contre, elle sait faire des choses que nous ne savons pas faire. Elle va traiter d’immenses bases de données, l’être humain en est incapable. Elle va faire des calculs à une rapidité dont nous sommes incapables. Elle pourrait avoir des sens en plus de ceux que nous avons. L’oreille humaine a une bande de fréquences audibles limitée : Les infrasons sont des ondes sonores se situant en-dessous de la limite moyenne d’audition humaine, soit environ 20 Hz, les ultrasons sont des vibrations de même nature que le son, mais de fréquence trop élevée, plus de 20 kHz à plusieurs centaines de mégahertz, pour que l’oreille humaine puisse la percevoir. Un robot pourra entendre ces sons ! Il pourra aussi avoir une caméra dans le dos. Nous pouvons imaginer beaucoup de senseurs en plus. Ces machines ont des performances différentes des nôtres, avec une capacité extrêmement intéressante dans certains cas. Nous le voyons pour tout ce qui est urgence, en nucléaire, ou sur des lieux de catastrophes où nous envoyons des machines pour aller aider des humains. Par exemple, pour opérer, le robot Da Vinci a 6 bras : le patient est télé-opéré par le chirurgien. Il faut faire attention à ne pas confondre corrélation et connaissance, sémantique de surface et sémantique profonde. Les corrélations que vont calculer les systèmes informatiques avec des algorithmes de type deep learning, représentent ce qu’on appelle la sémantique de surface, ce n’est pas du tout la même chose que les connaissances sémantiques d’un être humain. Le robot aura plus de senseurs et plus de capacités que l’humain Différencier sémantique de surface et connaissances sémantiques
  21. 21. Colloque CIGREF : Intelligence Artificielle... 22 On a parlé de trouver un compromis entre l’efficacité, la performance des systèmes, et l’explicabilité des systèmes. Je vous encouragerai donc, à chaque fois que vous avez cette démarche, d’utiliser le deep learning ou des réseaux de neurones qui sont des boites noires, de le faire en hybride. C’est-à-dire avec d’autres systèmes en parallèle, capables de regarder comment un modèle génératif et un modèle discriminant peuvent évoluer sur les mêmes types de données. La communauté sur le deep learning essaie de trouver comment rendre les modèles plus robustes et les solutions explicables. Il faut faire attention à bien paramétrer les systèmes de deep learning. Trouver un compromis entre performance des systèmes et explicabilité... D’autre part, il faut absolument évaluer. Il faut se donner des benchmarks (bancs d’essai). Il faut que les clients aussi, les usagers de ces technologies, puissent comprendre ce qu’est un benchmark, ce qu’est une performance obtenue avec un système. Parce que si ce sont des boites noires, que nous ne savons pas comment elles ont été évaluées, que nous ne savons pas quelles données ont été utilisées, peut-être qu’effectivement, les systèmes ne sont pas neutres, ils sont discriminants, déloyaux, et pilotés par quelqu’un qui, par exemple veut nous vendre quelque chose. Il est fondamental pour la confiance des utilisateurs, que nous leur donnions la possibilité d’ouvrir ces systèmes, d’une manière ou d’une autre. Nécessité de se donner des benchmarks
  22. 22. Quels enjeux pour l’entreprise ? 23 Dans les banques en particulier, et pour être plus concrète, nous utilisons ces machines-là depuis bien longtemps sur le scoring, dans l’appréciation et l’octroi du crédit, dans le trading automatique, nous en avons beaucoup parlé. Il faut savoir qu’intelligence artificielle, data et big data sont complètement liés. Avec l’évolution technologique en matière de data, l’avènement de l’intelligence artificielle, et en particulier de ce que nous appelons le deep learning, nous vivons véritablement, au plan scientifique, une rupture très importante. Importante dans la façon dont nous nourrissons la machine, pour faire très simple. Nous vivons une rupture très importante ! Les enjeux de gouvernance de l’Intelligence Artificielle Nous sommes dans une nouvelle phase d’évolution de l’informatique. C’est quelque chose que nous vivons déjà depuis des années, donc il faut faire attention à notre façon de nous exprimer, au buzz word. Je pense que nous vivons une véritable transition de l’humanité, une transition anthropologique. Je suis très inspirée de Michel Serres, et je pense que nous avons l’immense chance d’avoir Bernard Stiegler comme Grand Témoin. Pleinement consciente de ce que nous vivons, je pense que c’est nous qui créonscesmachines,nousquilesnourrissons.Jenesaispass’ilfauts’imaginer dans la science-fiction et se dire qu’un jour, elles nous auront complètement asservis. La vérité, c’est que nous sommes déjà dedans depuis longtemps. Ce big data permet à la machine d’aller infiniment plus vite que nous. Elle a une immense capacité de traitement, mais elle a beaucoup moins de neurones. Nous y reviendrons. Dèslorsqu’elleasespuitsdedonnées,ellepeutallerchercherdescorrélations intéressantes. Il a fallu attendre que nous soyons capables de créer ces puits de données dans les entreprises. Attendre que ces puits de données soient accessibles de manière très différente du classique data ware dans lequel nous avions siloté les différentes catégories de données. Et tant que nous n’avons pas de data lake, large et partagé dans l’entreprise, nous ne faisons rien avec l’intelligence artificielle, c’est important. Comme l’a rappelé Konstantinos VOYIATZIS, on a vu l’arrivée d’une nouvelle informatique. Et tant que nous n’avons pas « cloudifié », tant que nous n’avons pas « APIsé », on peut greffer des mécaniques « intelligentes », nous n’allons pas très loin ! Françoise MERCADAL-DELASALLES Société Générale, Administratrice du CIGREF Membre du Conseil national du Numérique Corrélations entre Big Data et Intelligence Artificielle
  23. 23. Colloque CIGREF : Intelligence Artificielle... 24 Dès lors que nous avons franchi ces étapes, nous sommes en train d’acquérir de nouvelles capacités dans la relation client. C’est vrai pour toutes les industries de services dans lesquelles nous travaillons. Nous avançons dans la capacité d’automatiser beaucoup plus la relation client. Nous cherchons à autonomiser de plus en plus le client. Ce n’est pas juste l’intelligence artificielle, c’est tout cet empilement de nouvelles technologies : pouvoir traiter le service et l’individualiser, le faire quand il veut, où il veut, à n’importe quelle heure, etc. Ce ne sont pas juste des mots et des concepts. Nous avons toute une série d’expérimentations en cours, qui utilisent notamment la voix. Vous avez certainement entendu parler de tous les assistants personnels et de la course infinie à laquelle se livrent les GAFA pour être celui qui va fabriquer le premier de ces assistants capable de véritablement fonctionner. Une autre vague, c’est celle de tous les nouveaux services. C’est-à-dire que s’ouvre là, avec ces nouvelles capacités technologiques, un nouveau domaine d’innovation que nous sommes en train d’explorer, chacun avec la méthodologie et les gouvernances que nous avons mises en place pour inventer les services de demain. C’est véritablement la course, surtout dans des industries de service où le produit lui-même est extrêmement peu différenciant. Quand vous faites par exemple un crédit habitation, vous faites un crédit habitation. Le crédit c’est le crédit. Et en plus, le crédit est encadré par des règles absolument drastiques qui fait que nous faisons tous exactement la même chose. Ce qui est différenciant dans les industries de services, c’est la façon dont vous rendez le service. Et c’est là où les outils d’intelligence, ces nouvelles technologies, nous permettent probablement de franchir un cap. Acquérir de nouvelles capacités dans la relation client Explorer la vague des nouveaux services C’est une façon infiniment plus précise de piloter l’entreprise. Quand nous sommes une banque, nous avons de gros soucis de pilotage de la liquidité, de pilotage des risques, de pilotage de l’ALM, l’allocation du capital. Si ces machines savent traiter de l’information beaucoup plus vite que nous, en quantité beaucoup plus importante et qu’elle se trompe beaucoup moins, nous avons-là des opportunités de pilotage internes infiniment renforcées. Des opportunités de pilotage de l’entreprise
  24. 24. Quels enjeux pour l’entreprise ? 25 L’ère numérique, c’est exactement l’inverse. C’est la possibilité, pour tous les citoyens que nous sommes, pour tous les consommateurs que nous sommes, pour tous les collaborateurs d’entreprise que nous sommes, d’aller chercher de l’information, accessible désormais au travers de ces petits outils extrêmement simples et désormais extrêmement peu coûteux. Je ne pense pas qu’il faille en avoir peur. Il faut comprendre ce qui se passe, et il faut aller donner les moyens à cette intelligence de s’exprimer. L’information est désormais accessible à tous... Dans une entreprise, essaie-t-on d’organiser tout ce qui a trait à l’intelligence artificielle ? Est-ce que vous faites des cellules de veille avec des prospectivistes ? Au niveau du management, comment travaillez-vous concrètement ? Frédéric SIMOTTEL Il faut que nous sachions et il faut que nous répandions ce savoir. Notre grand credo, c’est l’intelligence collective. Cette grande évolution que nous sommes en train de vivre grâce à ces nouvelles technologies, c’est une capacité de diffusion du savoir qui est incommensurablement supérieur à tout ce que nous avons connu auparavant. Il y a des tas de choses que je ne sais pas. Dans l’organisation, nous sommes 150 000 personnes. En donnant les outils à l’ensemble de ces collaborateurs, de l’intelligence, des idées, de la créativité, vont émerger ! Mon travail consiste à faire émerger ou à donner l’autorisation à cette intelligence collective d’émerger. Ce n’est pas simple, parce que nous vivons dans ces grandes organisations et nous venons de modes d’exercice du pouvoir extraordinairement pyramidaux, où le chef légitime détient de l’information que les autres ne détiennent pas. Nous avons mis en place plusieurs programmes. Evidemment, l’équipement de l’ensemble de nos collaborateurs de ces outils numériques qui leur permettent d’avoir accès, de manière permanente et ouverte à l’internet et auxréseauxsociaux.Parcequ’en2016,onnepeutpasavoirdescollaborateurs qui ont toujours des postes fixes, dont l’accès à internet est interdit comme il y a vingt ans quand les ordinateurs sont arrivés et qu’internet est arrivé, et que l’on considérait qu’aller sur internet ce n’était pas travailler. Nous pouvons avoir toute une réflexion autour de : « qu’est-ce que cela veut dire travailler aujourd’hui ? ». Ce n’est sans doute pas d’être posé devant un écran fixe de huit heures du matin à six heures du soir ! Un credo... l’Intelligence collective ! Permettre un accès ouvert à internet pour tous
  25. 25. Colloque CIGREF : Intelligence Artificielle... 26 Après l’équipement des collaborateurs, l’ouverture vers l’extérieur. Cela aussi est très anti-culturel dans des organisations immenses qui ont très longtemps considéré que c’étaient elles qui détenaient le savoir vis-à-vis du reste du monde. Il y a donc une forme d’arrogance sur laquelle il faut progressivement travailler et faire évoluer et donc s’ouvrir. Cela suppose, très concrètement, la mise en place d’écosystèmes d’innovation dans le monde entier. Ils nous permettent de rester connectés à tout ce qui se passe, avec des profils de partenariats et de compétences très différents. C’est vraiment la clé. Il faut être ouvert sur la communauté scientifique. Il faut avoir des contacts avec des sociologues, avec des anthropologues, avec des philosophes. Entrer en contact avec les startups est fabuleusement intéressant. Quel bonheur de voir, y compris dans notre pays, une jeunesse qui a envie de créer, de créer l’entreprise, de créer de la valeur et d’aller chercher de l’innovation. J’avoue que pour moi c’est un émerveillement de tous les jours. Je pense que le devoir des grandes organisations, c’est aussi d’aider l’émergence de ces startups, de cette technologie naissante, dans tous nos pays. Pas seulement en France, dans toute l’Europe. Sans parler des Etats-Unis où il se passe des choses extraordinaires. Il faut donc être à l’affût de ce qui se passe dehors, avoir l’humilité d’accepter que nous ne savons pas, que nous ne savons pas tout. Travailler sur l’ouverture vers l’extérieur... S’ouvrir vers les startups... Il faut évidemment être en contact permanent avec les GAFA. Il faut avoir en tête la capitalisation boursière de ces entreprises, et donc leur puissance absolument considérable, à la fois financière et cérébrale. Et pour le coup, leur puissance cérébrale avec de vrais cerveaux. Je veux dire, des cerveaux humains. C’est le brain drain qu’organisent ces compagnies, avec la capacité intellectuelle considérable que cela suppose. Il faut donc absolument les connaître. Dans la mesure du possible, il faut travailler avec elles, ne serait-ce que pour savoir ce qu’elles font. Nous essayons de protéger les communautés intelligentes, d’intelligence humaine à l’intérieur de l’entreprise. Dans les organisations où nous travaillons, la recherche de la performance et la recherche de la rentabilité sont des outils de survie. Mais ce ne sont que des outils. Ce n’est pas la finalité. Ces dernières années, nous n’avons pas forcément laissé émerger ou protégé lesintellectuels,dansl’entreprise.C’estfondamentaldeprotéger,d’entretenir, de conserver, de favoriser, de faire progresser les intellectuels de l’entreprise. Ils ne sont pas immédiatement rentables, mais ils nous maintiennent en vie, ils nous permettent de continuer à progresser, ce qui est fondamental. S’ouvrir vers les GAFA... Savoir protéger et encourager les communautés intelligntes...
  26. 26. Quels enjeux pour l’entreprise ? 27 Jevoudraisreveniràdeschosestrèsbasiques. Nousn’utilisons paslepotentiel des machines sans organisation des données. Le sujet de gouvernance globale n’est pas le plus important. C’est surtout celui de la gouvernance des données qui est important dans l’entreprise aujourd’hui. Avec une problématique majeure, celle du partage de la donnée. Le partage, la mise en commun de la donnée, afin que justement, la machine puisse aller chercher des corrélations dans des secteurs divers que nous n’aurions pas eu l’idée de rapprocher. C’est ce qui va permettre de générer de nouvelles opportunités et de nouveaux business éventuellement. La gouvernance des données, à la fois leur partage, leur protection, toutes les questions de privacy qui se posent, surtout quand on est une banque, c’est le problème numéro un. Importance de la gouvernance des données et de leur partage Il y a également quelque chose de très nouveau, c’est la communauté qui fait du deep learning. C’est une communauté de geeks extrêmement pointue. C’est une rupture parce que jusqu’à présent, tout ce que sortait la machine était quelque chose que nous avions codé. Quoi qu’il arrive. Tout est codé. C’est comme cela qu’elle prend sa décision. C’est parce que nous avons prévu les scénarios, parce que nous les avons codés. Le deep learning est une façon, pour la machine, d’apprendre elle-même, de mimer des processus cognitifs d’apprentissage. Aujourd’hui, cela représente une capacité extrêmement faible. Dans le cerveau d’un enfant de trois ans, il y a des milliards de milliards de connections qui se produisent. Ce qui fait que, quand il a vu passer trois fois un chat et qu’on lui a dit que c’est un chat, il le connait. L’ordinateur, avant d’arriver à cet apprentissage-là, il va lui falloir des milliers et des milliers d’octets d’informations. C’est une relation à la machine extrêmement différente dans la mesure où elle va pouvoir elle-même produire un certain nombre de scénarios. Le deep learning crée une rupture... Aproposd’éthiquedesalgorithmes,commentcelaseconcrétisedanslesentreprises,d’après ce que vous pouvez voir à la Société Générale ou même ailleurs, lorsque vous discutez avec d’autres de vos pairs ? Frédéric SIMOTTEL
  27. 27. Colloque CIGREF : Intelligence Artificielle... 28 Ce n’est pas simple, nous sommes un secteur considérablement régulé, et ce que nous observons quand nous faisons des sondages auprès de nos clients, ou même des sondages plus larges dans l’opinion, c’est que les gens ont une forme de réserve a priori sur l’utilisation de leurs données. Quand nous leur demandons : « Est-ce que vous acceptez que telle ou telle industrie utilise vos données pour faire ci ou ça ? », ils disent non en majorité. Ensuite, quand nous leur proposons un service qui leur permet des choses beaucoup plus faciles en termes d’utilisation, qui utilisent leurs données, ils l’utilisent massivement ! Quand ils rentrent chez eux, ils sont sur Facebook etc. En fait, il y a un taux d’adoption à plus de 78% de ces outils qui permettent d’aller plus vite, d’avoir des services, etc. tout en conservant une forme de méfiance abstraite. L’enthousiasme qui est le mien et celui de mes collaborateurs dans la diffusion de ces nouveaux outils, je comprends qu’il ne soit pas forcément partagé. Et qu’en tout cas, il y a des gens qui ne se l’approprient pas, de manière intuitive et simple. La responsabilité de l’entreprise, c’est effectivement de mettre en place les programmes d’accompagnement qui vont permettre à ces populations de s’approprier ces nouveaux outils, de vivre avec eux, d’avancer avec eux, de danser avec eux, de s’inventer... Cela nécessite une autorisation, une posture dansletravail,etenparticulieruneposturemanagérialequiestprofondément différente. Je pense que c’est véritablement le défi qui nous est adressé. Il existe une forme de réserve sur l’utilisation des données... Mettre en place des programmes d’accompagnement, d’appropriation des nouveaux outils ! Sur les questions d’éthique, il faut se montrer très pragmatique. Nous sommes en train de mettre en place des machines qui progressivement évincent, et vont pouvoir évincer de manière assez massive des tas de tâches qui sont aujourd’hui effectuées par des gens. Ce n’est pas l’humain, ce sont des hommes, des gens, nous, vous. Nous sommes en train de mettre en place des robots. Nous sommes notamment très présents en Inde où l’industrie de la robotique a considérablement monté en puissance. Nous sommes en train de remplacer des Indiens qui travaillaientpournous,dansnosentreprises,pardesrobots.L’Indeestunpays extrêmement puissant et innovant. Leur industrie robotique potentiellement va compenser en termes d’emploi, ces gens que nous sortons de nos entreprises. Je pense que c’est là le problème éthique majeur qui s’adresse à tous les dirigeants d’entreprises. C’est vraiment le sujet de l’éviction, celui de la formation des gens. Comment les amène-t’on à changer ? Je dois beaucoup à Bernard Stiegler qui m’a fait prendre conscience de quelque chose. Le problème éthique majeur est le sujet de l’éviction, de la formation des gens
  28. 28. Quels enjeux pour l’entreprise ? 29 Les recommandations, nous l’avons tous dit, sont autour des datas : - La constitution de datas lakes, sortir des silos, casser les datas wares qui sont déjà des technologies d’avant-hier. - Recruter des jeunes et des datas scientists. Une guerre des talents se déroule aujourd’hui. Nous sommes tous à la porte des universités où nous essayons de vanter nos talents, même si nous sommes sur des industries qui ne les font pas véritablement rêver. Ils préfèrent aller chez Google ! Il y a là des enjeux de recrutement. Si vous voulez recruter ces jeunes talents, il faut leur offrir des lieux de travail et des méthodes de travail qui soient totalement différentes de celles avec laquelle ma génération a été élevée. Il va falloir leur donner des potentialités de mobilité, leur offrir des choses qui les intéressent. Il va falloir leur donner la capacité d’innover, de créer, d’être responsables et leur donner de l’autonomie. Ce sont des choses que nous ne savons pas toujours faire. - S’occuper de tous les autres, de tous les anciens, qui n’ont pas forcément tout compris, à qui cela fait peur. C’est aussi de notre responsabilité collective. Des recommandations autour des datas et des talents... Nous sommes en train de vivre une époque formidable, pour dire les choses de façon un peu basique. La population des informaticiens, des scientifiques, qui sont à la fois la genèse de ces innovations et qui travaillent tous les jours, font probablement aujourd’hui le métier le plus passionnant du monde. Il n’y a pas d’endroit où les choses soient plus passionnantes que dans les métiers dans lesquels vous êtes aujourd’hui. Cela vous donne une responsabilité absolument considérable au sein des entreprises. Nous vivons une époque formidable
  29. 29. Colloque CIGREF : Intelligence Artificielle... 30 Nous avons fait des progrès assez importants à ces niveaux-là, ce qui permet de traiter, déjà, de gros volumes de données, donc être effectivement en corrélation avec tout ce qui est big data, ou d’améliorer la partie utilisation de la relation client, pour personnaliser cette relation client. Par exemple, nous pouvons éviter d’envoyer des mailings à tout le monde, qui ne sont pas personnalisés, pour proposer un crédit à la consommation, ce qui est souvent mal perçu, mais se focaliser sur les personnes qui sont vraiment intéressées. Optimisation de la relation client Le deep learning et l’entreprise Cela fait maintenant 60 ans que nous parlons d’intelligence artificielle. Il y a eu des hauts et des bas, des hivers de l’intelligence artificielle, mais depuis quelques années, il est vrai que nous en reparlons de plus en plus. L’intelligence artificielle s’est notamment démocratisée avec Google, qui a beaucoup marketé, et qui en a fait un cheval de bataille pour aller plus loin dans la compréhension de ce que font les utilisateurs. Il y a eu des innovations assez importantes. Nous sommes très loin d’une IA omnisciente qui pourrait tout faire et tout contrôler. Mais nous pouvons aller plus loin dans l’analyse notamment textuelle, dans l’analyse d’images, et dans l’analyse vocale. L’IA,oulemachinelearning,toutdépenddecedontnousparlons,vaêtredans nos téléphones pour la reconnaissance vocale, pour SIRI. Cela va être aussi en matière d’aide à la décision en médecine, pour aider dans le diagnostic. Cela va être pour trouver un moyen d’automatiser le traitement de gros volumes, alors qu’il ne serait pas possible de le faire manuellement. L’IA est un moyen d’optimiser, de rendre possible des choses qui ne seraient pas pleinement possibles. C’est un moyen d’avoir une vision sur les tendances, sur internet, analyser ce qui se dit sur différents sujets. Cela permet une vision synthétique, que ce soit sur la partie texte ou même d’analyser les réseaux, ce que nous faisons sur la partie image. Extraire une information de ces images-là, efficacement, pour en avoir une vision synthétique. Tony PINVILLE CEO d’Heuritech, Start-up spécialisée dans le deep learning L’Intelligence Artificielle permet une vision synthétique...
  30. 30. Quels enjeux pour l’entreprise ? 31 Il est assez différent suivant les secteurs. Mais il y a déjà une réelle conscience, maintenant,del’importanced’avoirdel’intelligenceartificiellepouroptimiser des processus. En revanche, nous nous rendons compte souvent, lorsque nous sommes confrontés à des situations réelles, qu’il y a une problématique des données. Parce que le machine learning sans données ne permet pas de faire grand-chose. Il y a une réelle prise de conscience dans le secteur banque et assurance. Nous avons parfois du mal à tester dans ce secteur, parce qu’il est difficile d’avoir les données pour tester nos algorithmes. Ensuite, les secteurs les plus matures sont ceux qui sont déjà digitaux par nature. Nous allons parler des secteurs comme le e-commerce, ou des secteurs qui sont beaucoup plus proches des données digitales. Dans le secteur bancaire notamment, cela commence à changer. C’est-à-dire que nous mettons à disposition des données qui sont anonymisées, qui ne posent pas de problème de privacy ce qui permet d’aller beaucoup plus vite. Avec les données, il y a un vrai enjeu de business pour optimiser la relation client, mais il y a des freins aussi parce qu’elles sont encore parfois silotées. Autre problème, c’est que les cycles des grands groupes et les cycles des startups ne sont pas semblables. Par exemple, six mois pour une start-up, c’est du long terme, pour un grand groupe, cela va plutôt être du court terme. Nous sommes confrontés à des problématiques de données... Les données anonymisées permettent d’avancer Il y a déjà un gros travail, notamment dans le secteur bancaire et assurance, c’est d’arriver à exploiter ces données-là de manière anonyme et de manière efficace. Souvent, nous sommes bloqués parce qu’il y a des process qui n’ont pas forcément été mis en place pour faciliter le test sur un objectif concret. La difficulté est aussi de bien définir quels sont les objectifs de l’utilisation du machine learning. Parce que si l’on dit juste : « Je veux faire du machine learning pour améliorer la connaissance client », c’est un peu vague. Je pense qu’il faut se donner des objectifs concrets, ce qui permet vraiment d’être efficace et de voir si notre expérience ou notre expérimentation arrive à bon port. C’est un point important. Des objectifs concrets pour faire du machine learning Parfois, nous avons l’impression que dans les entreprises, nous avons des données, nous avons des algorithmes et que cela va finir par tout résoudre. Comment voyez-vous le degré de maturité des entreprises ? Frédéric SIMOTTEL
  31. 31. Colloque CIGREF : Intelligence Artificielle... 32 Cela va améliorer tout ce qui est reconnaissance vocale. De même pour l’analyse d’image : exploiter toutes les données non structurées, notamment sur internet. Exploiter toutes ces données non structurées pour finalement extraire de la valeur, c’est ce que nous faisons principalement. Ce n’était pas possible en le faisant de manière humaine, ou alors avec beaucoup de traitements informatiques. C’est à partir des données que nous arrivons à extraire que la machine apprend elle-même. Ce n’est pas spécifique au deep learning, cela existe avec le machine learning, mais la particularité du deep learning c’est sa capacité à traiter de gros volumes. Effectivement, comme l’a dit Françoise Mercadal-Delasalles, le deep learning est une « boite noire ». Nous ne savons pas trop comment cela fonctionne, mais c’est comme le cerveau humain, nous ne le savons pas non plus ! C’est à partir des données que la machine apprend elle-même... Quelques mots sur le deep learning : c’est une branche du machine learning qui utilise des réseaux de neurones qui existent depuis plus de 50 ans. La différence, c’est la combinaison de plusieurs critères. Nous comprenons mieux comment assembler des réseaux de neurones pour en créer des plus gros et donc être plus pertinents. Nous avons à traiter à la fois les volumes de données et la puissance de calcul pour faire tourner tout cela. C’est cette combinaison qui permet une véritable avancée. C’est quelque chose qui a permis des performances vraiment supérieures. Dans la recherche sur la partie analyse d’image, analyse de texte, analyse audio. Les opportunités sont multiples. Par exemple, mieux comprendre la partie analyse sémantique, répondre mieux sur la relation client, optimiser et automatiser le process. Des performances vraiment supérieures et des opportunités multiples Quelles sont les opportunités business autour du deep learning et du big data, puisque nous pouvons relier les deux ? Frédéric SIMOTTEL Quelle est la place de l’éthique à propos des algorithmes ? Frédéric SIMOTTEL L’éthique est très importante, notamment concernant l’affectation des prix dans le domaine de l’assurance. Cela va être difficile d’utiliser des outils boites noires types deep learning pour affecter les prix, parce que nous avons besoin d’expliquer pourquoi ce prix-là a été fixé. Là, effectivement, nous devons utiliser des outils de machine learning qui permettent d’expliquer. Des différences selon les domaines
  32. 32. Quels enjeux pour l’entreprise ? 33 S’il fallait donner deux ou trois conseils, deux ou trois recommandations pour permettre aux dirigeants de mieux appréhender, dans leurs entreprises, ce que nous pouvons appeler une sorte de révolution intelligente ? Frédéric SIMOTTEL Dans certains autres cas, par exemple, si c’est pour classer des images ou des photos, le fait de ne pas savoir comment nous l’avons fait a peu d’importance. Le but est que les performances soient meilleures. Dans ce cas-là, il n’y a pas forcément besoin d’explication de l’algorithme. Tout dépend donc de la problématique. Ce qui nous intéresse, c’est d’avoir l’outil le plus pertinent qui nous permette de traiter efficacement, rapidement, de gros volumes de données. Donc tout dépend de la difficulté. Trouver l’outil le plus pertinent... Parmi les recommandations importantes, je dirais : - Avoir une démarche pragmatique. - Avoir déjà des données à exploiter, - Et surtout avoir un objectif clair et atteignable, bien identifié. Si nous faisons l’expérimentation, identifier les métrés qui permettraient de dire que cela va marcher ou que cela ne marchera pas. Et ne pas avoir peur de faire des expérimentations qui ne fonctionnent pas. Nous allons apprendre beaucoup de ces expérimentations-là, si elles sont faites rapidement. Il ne faut pas que ce soit un projet qui dure trois ans dans un tunnel... Mais apprendre de ces erreurs-là, c’est ce qui est fait tous les jours en recherche. Je pense que c’est important de se dire que nous avons un périmètre bien défini sur une tâche, nous avons des métrés pour évaluer si nous réussissons, et nous avons les données disponibles pour cela. Ne pas avoir peur de faire des expérimentations qui ne marchent pas...
  33. 33. Colloque CIGREF : Intelligence Artificielle... 34 Pourquoi l’avons-nous appelé : « adoption limitée » ? D’une part, nous avons beaucoup travaillé sur l’acceptation sociale de l’intelligence artificielle. Aujourd’hui il y a beaucoup de questions. Les personnes sont prêtes à être en voiture avec quelqu’un qui peut-être va faire une erreur humaine et les « crasher » dans un mur, mais si c’est un robot qui le fait, le niveau d’acceptation social est très différent. D’autre part, il y a la question de l’emploi. On peut se dire que c’est super, que nous allons optimiser, mais que finalement, nous allons tuer les emplois de demain. Beaucoup de gens, vont perdre leur poste. Aujourd’hui des entreprises comme Facebook, IBM... investissent. Mais le coût des solutions qu’ils vont proposer, notamment aux grands groupes, est extrêmement élevé. Ce que nous voyons avant tout dans cette adoption limitée, c’est de l’IA qui fait une ou deux choses. C’est une IA étroite, une IA qui fait par exemple de la traduction ou de l’analyse émotionnelle ou de l’analyse d’image. Mais nous n’avons pas, dans ce scénario, de croisement de ces différentes technologies. Dans ce scénario, au final, ce sont les Etats, par exemple la recherche militaire, qui vont surtout bénéficier de ces apports, et puis de très grands groupes comme ceux que j’ai cités auparavant. Un scénario appelé « adoption limitée » Intelligence Artificielle et prospective En tant que responsable de la prospective pour le groupe Axa, j’ai piloté pendant six mois une étude sur des scénarios d’avenir de l’intelligence artificielle. Nous avons travaillé avec des chercheurs, nous avons travaillé avec des start-upers. Nous avons beaucoup échangé, dans différents pays et nous avons obtenu trois scénarios dont je vous donne les grandes lignes. Nous avons ensuite travaillé sur un deuxième scénario, que nous avons appelé « control machine learning ». L’idée est de voir comment l’IA va jusqu’à l’individu, jusqu’au client, comment nous avons cette percée. La chose que j’ai trouvée très intéressante dans ce scénario, ce sont les partenariats qui se font entre les producteurs et les utilisateurs des IA. Parce que vous pouvez avoir de très bons algorithmes, mais si vous ne connaissez pas les enjeux business, c’est extrêmement difficile de les développer correctement. Cécile WENDLING Responsable de la prospective pour le groupe AXA Un scénario appelé « control machine learning »
  34. 34. Quels enjeux pour l’entreprise ? 35 Nous avons enfin un troisième scénario qui est celui des agents intelligents. Nous allons vers de la « strong IA ». Nous n’y sommes pas du tout, mais nous y allons. C’est la Chine, le Japon, la Corée, ce scénario vient de ces acteurs asiatiques. Ce que j’ai trouvé très intéressant, c’est l’importance de la culture des arts et de l’acceptation de l’intelligence artificielle par ce biais. Nous avons beaucoup travaillé sur l’imaginaire des sociétés et comment l’imaginaire en Asie était vraiment différent vis-à-vis de ces solutions. Pour revenir sur la définition, nous avons d’abord travaillé avec des chercheurs sur ce que nous avons appelé « unsupervise machine learning », sur des données non structurées. C’est comme cela que nous avons défini notre sujet et nous avons appelé les agents intelligents comme ce que nous appelons chez nous, dans le secteur financier, le robot advice. Un scénario de « strong IA » Deuxième chose, pour des questions de coût, cela permettait à des grands groupes d’utiliser des solutions IA en les revendant eux-mêmes une fois qu’ils les ont spécifiés vis-à-vis de leur secteur. C’était un modèle de commercialisation et d’approche de marché extrêmement innovant et qui permettait ces changements. Nous nous sommes projetés en 2030. Nous sommes bien conscients que si nous nous étions projetés en 2020 ou en 2040, nous n’aurions pas du tout eu le même scénario. Nous ne parlons pas d’un monde qui va se développer de façon égale selon les pays et selon les types de secteurs. Nous avons vraiment souligné que la régulation sera clé. Et sans assurance l’IA ne pourra pas se développer. Nous nous sommes rendu compte que pour l’innovation, nous avons besoin d’une couverture du système, pour pouvoir le développer. Aujourd’hui, si vous ne savez pas qui sera responsable en cas d’accident lié à un algorithme, vous n’allez pas monter dans la voiture. Mais du coup, cela pose des questions extrêmement difficiles. Même en travaillant avec beaucoup d’avocats, beaucoup de juristes, et en échangeant avec la Commission européenne, personne aujourd’hui n’a vraiment de réponse validée, fiable, inscriptible dans le droit, sur ces enjeux-là. Un modèle innovant de commercialisation et d’approche du marché L’horizon temporel, régulation et assurance...
  35. 35. Colloque CIGREF : Intelligence Artificielle... 36 Le deuxième enjeu, c’est de ne pas juste accéder à la donnée d’un senseur ou d’un véhicule, mais bien d’un système, puisque ce qui a été souligné, c’est que différents senseurs, différents objets, parlent entre eux. Est-ce que c’est la voiture qui ne s’est pas arrêtée ou est-ce que c’est le feu qui n’a pas donné l’information que le feu était rouge ? C’est une vraie question. Troisièmement, il va y avoir beaucoup plus de cyber-attaques dans cet environnement-là, et également plus de bugs. Pour nous, la grosse difficulté, c’est qu’un humain, lorsqu’il conduit, fait des erreurs humaines, mais qui sont toutes différentes et le risque est distribué. Si nous avons 7000 véhicules qui se font hacker le même jour, ou ont le même bug, c’est ce que nous appelons un risque d’accumulation. C’est-à-dire que la masse de la catastrophe va être tellement énorme que la question est de savoir si un assureur tout seul peut couvrir cela ou s’il va falloir un fonds, comme nous avons par exemple un fonds européen en cas de catastrophe naturelle. Du risque distribué au risque d’accumulation... Nous travaillons sur trois grandes dimensions. La première, c’est vraiment l’assurance de l’intelligence artificielle, l’assurance de véhicules autonomes, l’assurance de drones autonomes. Nous avons fait un vrai travail sur : « Quel est le cadre juridique, qui est responsable ? ». L’enjeu pour nous, c’est l’accès en temps réel à la donnée, pour pouvoir par exemple savoir si la personne était vraiment en train de regarder la route, était vraiment au volant, ou si c’était la voiture qui pilotait le système. Nous avons un deuxième volet qui est, comme dans toutes les entreprises, de savoir comment cela change notre organisation, le sens du travail, le lien entre l’homme et la machine au travail. Est-ce qu’il pourrait y avoir des accidents ? Est-ce qu’il pourrait y avoir des dépendances nouvelles ? Est-ce qu’il pourrait y avoir des tensions entre des décisions qui seraient prises automatiquement ou des décisions qui seraient contrôlées ? Suite à cette étude, notre positionnement est « the power for human with IA ». Ce n’est pas remplacer l’humain, mais comment donner plus de pouvoir aux humains. Quelle assurance pour l’Intelligence Artificielle ? Sens du travail, lien entre l’homme et la machine Quels sont vos travaux et concrètement leurs conséquences en termes de responsabilité ? Frédéric SIMOTTEL
  36. 36. Quels enjeux pour l’entreprise ? 37 Le troisième volet, c’est le changement vis-à-vis de la relation client. Je lisais des exemples sur l’emotion analytics. Quand vous venez d’être inondé, ou quand vous dormiez la nuit avec vos trois enfants et que vous venez d’être cambriolé, il y a un état émotionnel de la personne qui va appeler l’assurance et qui est très différent d’une autre situation. La question est de savoir si l’on peut, par de l’analyse émotionnelle sur une voix, prévenir l’humain qui va recevoir l’appel, par quelques mots ou quelque chose, que cette personne est dans un état de détresse spécifique. Nous avons fait un jeu de rôle pour savoir si vraiment, dans ces moments-là, vous aviez envie d’avoir un « robot » au téléphone. Qu’attendez-vous, en tant qu’humain comme empathie ? Est-ce que vous pouvez projeter sur un robot, sans que le robot soit dans cet état ? Considérer l’état émotionnel dans la relation client En l’occurrence, nous avons des agents, que vous pouvez aller voir, qui sont dansvotrequartier.Cesagents-làontunéchangeavecvous,uneconnaissance, un sens de vos enjeux, de vos problématiques. Ils connaissent votre famille. Il ne s’agit pas de mettre des robots, il s’agit de voir comment ils peuvent être une aide pour mieux conseiller leur client. Aujourd’hui, il faut tout de même être assez riche pour avoir un conseiller financier qui va vous dire de faire plutôt ceci ou plutôt cela, de mettre plutôt l’assurance vie comme-ci ou comme-ça. Demain, avec du robot advice, le coût de ce conseil va baisser. Donc même quelqu’un qui a vraiment peu de moyens va pouvoir y accéder. Mais pour cela, il faut qu’il y ait la confiance. Il n’y aura pas de confiance s’il n’y a pas derrière l’éthique des algorithmes. S’il n’y a pas des chartes, des labels, des règles, que se donnent soit les entreprises elles-mêmes, soit des consortiums d’entreprises qui travaillent conjointement, soit les Etats, sur ce que nous faisons et ce que nous ne faisons pas. Il se passe énormément de choses au niveau de la Commission européenne et dans plein d’autres instances pour savoir ce que nous allons faire. Il y a un rapport du Parlement européen qui est relu par différentes commissions. Il y a la DG Connect, et la DG Justice qui sont en train de faire un gros travail sur les robots, Internet of Things, travelers cars. Que voulons-nous ? Quel cadre contractuel ? Quel cadre juridique ? Quelle responsabilité ? Quel type de plateforme ? Je m’étonne qu’il y ait très peu d’entreprises françaises représentées dans les discussions. Ce sont des discussions ouvertes. Tout le monde peut y aller. J’ai l’impression que nous ne nous sommes pas saisis assez sérieusement de cette question, alors même que c’est le moment de fixer le cadre qui nous permettra après d’agir, et d’agir en confiance. Comment les robots peuvent aider à conseiller le client... Les entreprises françaises devraient être plus présentes dans les Commissions...
  37. 37. Colloque CIGREF : Intelligence Artificielle... 38 C’est vraiment une question de confiance. Pour assurer les gens, nous avons besoin de connaître beaucoup de choses de leur vie, pour pouvoir bien connaître leur risque. Mais nous prenons cet engagement, nous n’allons pas les revendre, nous n’allons pas en faire un business. Ce sont des engagements très forts, et c’est la première brique de cette réflexion. La deuxième brique, sur laquelle j’ai travaillé très activement, c’est l’éthique des algorithmes. Qu’est-ce que cela veut dire ? Est-ce qu’il faut faire un trade of ? Ce sont des questions à ce jour. Nous n’avons pas les réponses, entre l’efficacité d’un algorithme et son interprétabilité. Aujourd’hui les algorithmes sont extrêmement efficaces, mais nous ne sommes pas capables d’expliquer au client pourquoi il paye 12,80€ alors que quelqu’un d’autre payera 28,30€. Avant, avec des méthodes statistiques, vous pouviez vous dire que c’était l’âge de votre véhicule ou la date de votre permis de conduire, ou votre adresse... C’est une première question. Si nous n’avons pas, en interne, une réflexion, nous allons aller droit dans le mur. Il peut y avoir des biais, il peut y avoir ce que nous appelons de la discrimination implicite. Je vous invite à lire les rapports de la Maison Blanche. Il y en a eu deux très bien, sur tout ce qui est discriminatory pricing. Aujourd’hui, nous nous positionnons pour un travail avec les régulateurs sur ces sujets, en disant qu’il va falloir de l’oversight des algorithmes. Il va falloir, parce que sinon, nous allons tous perdre. Une réflexion sur l’éthique des algorithmes Il faut s’impliquer, contribuer, apporter une vision de ce que nous entendons, par exemple, comme éthique d’un algorithme. Parmi les gros défis, sur lesquels nous travaillons, je voudrais revenir sur la data. Nous avons décidé d’être très très attentifs à la data privacy et nous avons été le premier groupe d’assurance à avoir ce que nous appelons les binding corporate rules. Nous avons créé ce que nous appelons le data privacy advisory panel, qui se réunit, avec notre PDG et les plus hautes personnes du management community, pour en discuter. Que faisons-nous et que ne faisons-nous pas avec la donnée ? Quelles règles nous donnons-nous ? Qu’est-ce que cela donne, concrètement ? Axa s’est engagé, c’est public, c’est sur notre site web, à ne pas vendre les données personnelles de nos clients. Les enjeux de la data privacy
  38. 38. Quels enjeux pour l’entreprise ? 39 Aujourd’hui, il y a une vraie question. Nous avons beaucoup travaillé sur rule of law et demain, nous allons travailler sur rule of code. Il faudra donc aussi que les régulateurs, ou les instances politiques, puissent avoir cet accès-là. A mon avis, nous sommes au tout début de cette étape. Il y a aussi tout un enjeu sur les labels. La CNIL fait des labels, etc. Mais nous voyons de plus en plus de labels d’éthiques d’algorithmes. Le label Adel, par exemple, sur les algorithmes en santé, ou en assurance, en est un. Mais il y en a beaucoup d’autres. Là non plus, aujourd’hui, ce n’est pas mûr. Vous avez des centaines et des centaines de labels. Certains valables dans certains secteurs, certains valables dans certains pays... Comment faire pour savoir quel est le bon label ? Et à quoi me sert un label ? Et est-ce que, finalement, un client va croire dans un label ? Toutes ces questions se posent et nous en sommes au tout début. C’est une conversation que nous devons avoir, d’une façon collective. Il faudra des chercheurs, des régulateurs, des associations de consommateurs, des gens de la technique... Il n’y a que comme cela que nous allons réussir à commencer à écrire ensemble la société que nous voulons pour demain. L’enjeu des labels d’éthique des algorithmes Si au sein des secteurs financiers, il y a des brebis galeuses qui font de la discrimination, comment voulez-vous que demain, le client ait confiance ? Le risque réputationnel est énorme. Il faudra cette oversight, cela veut dire que derrière, il faut aussi que nos régulateurs montent en compétences. Nous voyons aujourd’hui apparaître la notion de ce que nous appelons les « RegTech », les technologies de régulation. Est-ce qu’une blockchain ou de nouveaux outils technologiques ne sont pas des façons, pour le régulateur, d’avoir lui aussi une clé ? Sur une blockchain, il peut y avoir différentes clés, qui peuvent être privées, publiques, etc. Si le régulateur aussi avait une clé ? Au sujet de l’école, je trouve que nous devrions apprendre aux enfants en maternelle à construire de petits robots. A faire les premières boucles algorithmiques, plutôt que de les apprendre sur une calculatrice. Les gens auraient beaucoup moins peur de ces technologies numériques. La blockchain comme technologie de régulation ? Apprendre aux enfants à construire de petits robots...
  39. 39. Colloque CIGREF : Intelligence Artificielle... 40 Pour conclure, je pense qu’aujourd’hui, les systèmes fermés meurent, les systèmes ouverts survivent. Ducsol le rappelait à Mydata 2016 à Helsinki en août dernier. C’est pour cela que les villes existent depuis le Moyen-Âge, qu’elles sont toujours là, et que les entreprises meurent, qu’il y en a d’autres qui naissent, etc. Pour moi, la prochaine étape de l’entreprise, est vraiment de réfléchir à l’open data, et plus encore à l’open code. « Qu’est-ce qu’on ouvre ? Qu’est-ce qu’on ferme ? Pourquoi ? Dans quelles conditions ? A quel point est-on transparent sur les codes qu’on utilise ou à quel point on réutilise de l’open code ? ». Aujourd’hui, nous commençons à réfléchir macro-économiquement. Nous voulons de la croissance. Nous voulons de l’emploi. Si plein de données silencieuses dorment dans nos entreprises et que nous n’en faisons rien, c’est autant de possibilités d’innovation qui ne vont pas venir en Europe. Les systèmes fermés meurent, les systèmes ouverts survivent ! Evidemment, nous ne pouvons pas tout ouvrir. Evidemment, il y a de la data privacy, des données qui sont business sensitives, mais il y a aussi une réflexion à avoir et je voudrais citer ces grands challenges. Le changement climatique, la santé et la prévention, ou encore les attaques cyber. Si nous ne partageons pas des données, nous serons beaucoup moins équipés pour trouver des solutions. Aujourd’hui, la réflexion commence vraiment. Tout reste à inventer, mais c’est extrêmement important que nous soyons centrés sur nos clients et leurs attentes. Nos attentes, en tant que business, et également, les attentes sociales. Pour moi, la seule façon pour que l’IA fonctionne, sera d’aligner les intérêts du client, des entreprises et de la société. Aligner les intérêts du client, des entreprises et de la société
  40. 40. Quels enjeux pour l’entreprise ? 41 Je suis présent ce matin en tant que directeur de l’Institut de Recherche et d’Innovation, que j’ai créé au sein du centre Pompidou il y a dix ans. Je suis présent également en tant que président d’une association qui s’appelle Ars Industrialis. Pourquoi Ars Industrialis ? Parce que nous pensons qu’il faut réinventer l’industrie et qu’il faut réinventer le rapport de l’industrie au savoir. Nous pensons que le savoir est en train de muter complètement, dans la mesure où il est maintenant constitué par des automates. Il se fait avec des automates, cela suppose une très grande transformation industrielle. Il va falloir apprendre à travailler avec des machines, non pas pour être remplacé par ces machines, mais pour s’agencer avec ces machines, c’est un nouveau travail. Il faut réinventer l’industrie et le rapport de l’industrie au travail Intelligence Artificielle et avenir du travail Ce colloque est à mon avis très important du point de vue de l’histoire de la réflexion industrielle française. Je crois que quelque chose est en train de se jouer là. Vous avez pu assister, à travers cette table ronde, à la complexité du sujet. Il ne faut pas que cette complexité effraie, il faut qu’elle attire. Ce qui est complexe est intéressant. Par exemple, jouer aux échecs est beaucoup plus intéressant que jouer à la marelle ! Et après avoir joué aux échecs, on peut passer à faire de l’intelligence artificielle... Bernard STIEGLER Philosophe, docteur de l’École des Hautes Études en Sciences Sociales Ilyapresque300ans,AdamSmith,dans«Larichesse des nations », à travers l’analyse de la division industrielle du travail et à travers cette fameuse entreprise de production d’aiguilles, expliquait que letravailindustrielallaitrendrebêteetquec’étaitun grosproblème.Pourcetteraison,ilfallaitabsolument créer des écoles publiques. Ces écoles publiques devaient permettre aux gens qui allaient travailler dans ces usines, de cultiver leur intelligence. Leur intelligence au sens du 18ème siècle, c’est-à-dire leur capacité de vivre ensemble, etc. Sinon, nous allions vers une société déchainée, une société barbare. Au 19ème siècle, Karl Marx a repris ce thème, en le renversant d’une certaine manière, sur des bases politiques ou théoriques tout-à-fait différentes, en disant que l’industrie allait conduire à la prolétarisation généralisée, y compris des dirigeants des entreprises.
  41. 41. Colloque CIGREF : Intelligence Artificielle... 42 Aujourd’hui, nous sommes confrontés à la fois à cette réalité, et d’autre part, nous sommes en train de basculer dans autre chose, une industrie qui recommence à développer du savoir et de l’intelligence chez tous ses acteurs. Pas simplement chez les dirigeants ou dans les directions de ressources humaines, ou chez les ingénieurs, ou dans les DSI, ou départements, ou les stratégies de la direction numérique... Chez tout le monde, y compris chez les clients. C’est ce qui a été évoqué tout à l’heure au titre de l’intelligence collective par Françoise Mercadal-Delasalles. Laurence Devillers a insisté sur un point fondamental. D’une part, le deep learning et l’intelligence humaine, c’est complètement différent. Et cela ne fonctionne pas de la même manière. Il ne s’agit pas de remplacer l’être humain par le deep learning, il s’agit de les articuler. La fiabilité de la donnée est également une question fondamentale. Françoise Mercadal-Delasalles a souligné la question de l’intelligence collective. Il va falloir produire de la data de bonne qualité par l’intelligence collective. Et pas seulement par des robots dont nous ne savons pas comment ils marchent. Même s’il y a des réalités qui font que nous ne pouvons pas savoir comment cela fonctionne dans certains cas, il faut savoir que nous ne pouvons pas le savoir. A ce moment-là, quelles précautions prendre, quel contrat social passons-nous ? Aujourd’hui, l’industrie développe du savoir et de l’intelligence... La fiabilité de la donnée est fondamentale... Jevoudraisappuyercequ’aditMonsieurVoyiatzissurlepassageduséquentiel au parallèle. Je pense que c’est un enjeu extrêmement important. Il est également très important d’historiciser, de connaître l’histoire, et de savoir quelles sont les logiques et les conflits. Il y a des conflits, il y a des bifurcations dans tous les systèmes, qui se règlent à travers des conflits dynamiques. Cesconflitsnesontpassimplementalgorithmiques,ilsnesontpassimplement scientifiques, ils sont sociaux aussi, ils sont stratégiques, ils sont géopolitiques, etc. Ils sont aussi des conflits corporatistes. Cette histoire commence avec l’ENIAC, le premier ordinateur qui a été fabriqué dans les années 40. Cet ordinateur est infiniment moins puissant que votre smartphone. C’est incomparable. Il est aussi ridiculement moins puissant que votre cerveau, moins puissant pour certaines opérations par rapport à votre smartphone, s’il est connecté à des serveurs de cloud computing. Il est important de connaitre l’histoire, les logiques, les conflits...
  42. 42. Quels enjeux pour l’entreprise ? 43 Il y a des objets connectés qui sont des producteurs de data. Ils ne sont pas du tout faits pour cela. Une brosse à dents ce n’est pas fait pour produire de la data, mais pour nettoyer vos dents. Et bien les brosses à dents, aujourd’hui, produisent des datas sur vous. Il y a du business derrière cela et de grandes transformations de business. Toutlemondeaétéfrappédel’accordentreNikeetApple,maisilyabeaucoup d’autres choses qui se produisent dans ce sens. Par ailleurs, des outils que nous appelons des objets autonomes, un aspirateur par exemple, rentrent dans votre foyer et bientôt dans les villes. Beaucoup de grandes transformations conduisent aussi aux nouveaux business. A travers l’exemple d’Axa ou chez Generali, vous voyez que cela constitue un nouveau système technique planétaire qui ouvre un espace à des entreprises planétaires, qui ne sont pas seulement des entreprises transnationales. Ces entreprises sont dans des rapports complètement différents avec les Etats par rapport aux entreprises transnationales. Ce n’est pas simplement ce qui est bon pour l’entreprise, ou qui est bon pour l’Amérique... C’est quelque chose d’un autre ordre, qui ouvre vers de très grandes questions de conflits géopolitiques. Des objets connextés aux objets autonomes... Vers des entreprises planétaires ! Depuis est apparue la réalité qu’incarne par exemple Marvin Minsky. Minsky est un très grand penseur de l’intelligence artificielle, mais dans une vision très séquentielle, au départ. Très séquentielle et qui a conduit à des projets comme par exemple les théories des cognitivistes de Jerry Fodor, essayant de penser le cerveau humain, la pensée humaine à partir de l’ordinateur et réciproquement. J’ai toujours dit que c’était une impasse. Jevoussignalequej’aicréélelaboratoireCostechàl’universitédeCompiègne, qui travaille avec le CIGREF, où nous avons démarré en 1989, un laboratoire de sciences cognitives critiques. C’est un laboratoire de sciences cognitives mais de critique des sciences cognitives et non pas simplement de reproduction. Critique par exemple du discours de Jerry Fodor que je crois être une impasse. A partir de ces impasses sont sortis des systèmes experts. Et puis, des systèmes experts nous sommes passés aux réseaux de neurones qui viennent aussi de la vie artificielle, de la modélisation des systèmes multi-agents. C’est une longue histoire sur laquelle je suis réellement impliqué. Les réseaux de neurones sont très à la mode, parce que le deep learning réactive ces réseaux de neurones. Après, tout s’est articulé et en ce moment, c’est en train de s’articuler avec les objets connectés. Des systèmes experts aux réseaux de neurones...

×