Your SlideShare is downloading. ×
  • Like
De quels traitements sommes-nous les proies ?
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Now you can save presentations on your phone or tablet

Available for both IPhone and Android

Text the download link to your phone

Standard text messaging rates apply

De quels traitements sommes-nous les proies ?

  • 3,337 views
Published

Big Data, algorithmes et traitements... Définitions, effets, enjeux, promesses, limites, solutions.

Big Data, algorithmes et traitements... Définitions, effets, enjeux, promesses, limites, solutions.

Published in Technology
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
3,337
On SlideShare
0
From Embeds
0
Number of Embeds
16

Actions

Shares
Downloads
23
Comments
0
Likes
8

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. De quels traitements sommes-nous les proies ? cc. Hubert Guillaud – http://www.internetactu.net avatars&Cie – novembre 2013
  • 2. Introduction > Le nouveau monde des traitements
  • 3. Nous ne savons rien de l'algorithme d'autocomplétion de Google qui affiche ces résultats. Combien de personnes ont tapés ces questions stéréotypées ? Représentent-ils une majorité de la population ou pas ? L'autocomplétion affiche sur les mots que vous commencez à inscrire les requêtes "utiles" des utilisateurs... mais que signifie le terme "utile" ? L'autocomplétion n'est pourtant pas totalement automatisé, mais au contraire est personnalisé et parfois censuré. "Google n'est pas le miroir objectif qu'il prétend être" et la campagne montre bien que la manière dont il affiche des résultats à un impact direct sur nous. - Anna Jobin http://sociostrategy.com/2013/googles-autocompletion-algorithms-stereotypes-accountability/
  • 4. CODE IS LAW « Le code régule. Il implémente - ou non - un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il protège la vie privée, ou promeut la surveillance. Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix - et donc dans la manière dont ces valeurs sont garanties - ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place. » Lawrence Lessig - Le code fait loi http://www.framablog.org/index.php/post/2010/05/22/code-is-law-lessig
  • 5. Le Code n'est plus la loi http://youtu.be/Rq1dow1vTHY « Google Translate intègre lui des milliards de pages de traductions pour prendre ses décisions quant à savoir si le mot anglais light doit être traduit par lumière ou léger. Il est impossible pour un humain de trouver les raisons précises de choix du mot dans le programme, car ce choix est basé sur des quantités massives de données et de vastes calculs statistiques. » Viktor Mayer-Schönberger et Kenneth Cukier Big Data . http://www.internetactu.net/2013/05/14/big-data-nouvelle-etape/
  • 6. « Nos langues sont désormais optimisées par et pour les machines » Frédéric Kaplan - Nos langues à l'heure du capitalisme linguistique http://www.internetactu.net/2012/04/06/nos-langues-a-lheure-du-capitalisme-linguistique/
  • 7. Definitions > De quoi parle-t-ON ?
  • 8. Définition > BIG DATA
  • 9. Définition > Qu'est-ce qu'un algorithme ? Algorithmes
  • 10. Définition > Qu'est-ce qu'un algorithme ? Un algorithme est une suite finie et non ambiguë d’opérations ou d'instructions permettant de résoudre un problème.(...) On mesure l'efficacité d'un algorithme notamment par sa durée de calcul, par sa consommation de mémoire RAM (en partant du principe que chaque instruction a un temps d'exécution constant), par la précision des résultats obtenus (par exemple avec l'utilisation de méthodes probabilistes, comme la méthode de Monte-Carlo), sa scalabilité (son aptitude à être efficacement parallélisé), etc. Wikipédia
  • 11. Définition > Nouveaux logiciels, mode de production, producteurs et modalités de traitements
  • 12. Définition > LA PROMESSE DES TRAITEMENTS http://www.internetactu.net/2012/11/29/la-pertinence-des-algorithmes/ « Notre discours public en ligne a lieu sur un ensemble restreint de plates-formes qui utilisent des algorithmes complexes pour gérer et organiser des collections massives de données, il existe une tension importante entre ce que nous nous attendons à voir émerger et ce que sont ces algorithmes en réalité. Non seulement nous devons reconnaître que ces algorithmes ne sont pas neutres, qu’ils codent des choix politiques, et qu’ils “armaturent” l’information d’une manière particulière, mais nous devons également comprendre ce que signifie de nous appuyer sur eux, pourquoi voulons-nous qu’ils soient neutres, fiables, qu’ils soient des moyens efficaces pour atteindre ce qui est le plus important. » Tarleton Gillespie
  • 13. EFFETS > Les Algorithmes sont parmi nous
  • 14. effets > Nouveaux critères de sélection Les Big Data n’éliminent pas le jugement humain ou nos a priori, mais l’ordinateur permet d’appliquer un autre type de filtre pour trouver les gens compétents. http://www.internetactu.net/2013/05/03/lemploi-a-lepreuve-des-algorithmes/ http://www.internetactu.net/2013/06/26/limite-et-puissance-du-big-data-applique-aux-ressources-humaines-chez-google/
  • 15. Effets > Nouveaux critères de sélection Le “scoring” ou évaluation du risque client, est une méthode statistique et algorithmique pour évaluer votre éligibilité à une demande de financement. Ce scoring repose sur une série de ratios pondérés élaborés sur l’observation de séries statistiques à partir d’échantillons représentatifs d’emprunteurs, qui portent en général sur la situation familiale (situation maritale, nombre d’enfants à charge, âge…), la situation professionnelle (type de contrat, ancienneté…) et bien sûr la situation budgétaire (revenus, charges, taux d’endettement…). Ce scoring, cette notation dont vous êtes l’objet, va être utilisé pour décider de la faisabilité du crédit et déterminer son taux. http://www.internetactu.net/2013/03/13/a-qui-les-algorithmes-preteront-ils-de-largent/
  • 16. Effets > RENFORCER LES CLIVAGES SOCIAUX “Il est consternant de voir avec quelle facilité les médias sociaux peuvent désormais être utilisés, non pas comme un outil de connectivité, mais comme un mécanisme de tri pour rationaliser les inégalités sociales. Ils ne se contentent pas de cartographier le territoire social, mais commencent à le dicter et le renforcer.” - Rob Horning
  • 17. Effets > Tarification algorithmique http://www.internetactu.net/2013/01/22/de-quels-traitements-sommes-nous-les-proies/
  • 18. Effets > VOUS ETES UN LIVRE OUVERT Ce que l'on apprécie sur Facebook est très efficace pour déduire le sexe, l'orientation politique et sexuelle, mais aussi si une personne prend des médicaments ou a des parents divorcé... Des traits de personnalité comme l'ouverture d'esprit ou l'intelligence ont également été estimées à partir des goûts. http://www.youarewhatyoulike.com
  • 19. EFFETS > La fin du consentement préalable http://www.internetactu.net/2012/04/11/big-data-grande-illusion/ « Une grande partie de la valeur des données proviennent de leurs utilisations secondaires » - Viktor Mayer-Schönberger
  • 20. La PROMESSE DES BIG DATA : COMPRENDRE LE MONDE ? http://www.internetactu.net/2008/09/09/est-ce-que-le-deluge-de-donnees-va-rendre-la-methode-scientifique-obsolete/ « Nous pouvons désormais analyser les données sans faire des hypothèses sur ce qu’elles vont produire. Nous pouvons jeter les nombres dans le plus grand réseau d’ordinateurs que le monde n’ait jamais vu et laisser les algorithmes trouver les modèles que la science n’arrivait pas à trouver.” (...) Avec suffisamment de données, les chiffres parlent d’eux-mêmes.  » - Chris Anderson
  • 21. Les échecs des Big Data : Gains Marginaux ? http://www.internetactu.net/2012/04/26/les-limites-du-ciblage-publicitaire-personnalise/ http://blogs.hbr.org/cs/2012/10/big_data_hype_and_reality.html
  • 22. Enjeux > La criminalisation des comportements : De La police des schémas A La JUSTICE PREDICTIVE “Tout un chacun a une forme ou un motif de vie. Vos actions quotidiennes sont répétitives, votre comportement a ses régularités (…). Toute dérogation à la norme que vous avez vous-même établie par vos habitudes, tout écart avec les régularités de votre comportement passé peut sonner l’alerte : quelque chose d’anormal, et donc de potentiellement suspect, est en train de se produire. (…) Cette méthode relève du “renseignement fondé sur l’activité”. De la masse de données collectées au sujet d’un individu, d’un groupe ou d’un lieu, émerge progressivement des “patterns”, des motifs repérables. L’activité constitue une nouvelle alternative à l’identité.” Grégoire Chamayou, Théorie du drone. http://www.internetactu.net/2013/05/29/theorie-du-drone-de-la-fabrique-des-automates-politiques/
  • 23. Demain, il pourrait être possible d'identifier les sociopathes en fonction de leurs interactions sur les médias sociaux... - Scott Adams Que ferons-nous d'un tel pouvoir ?'Que ferons-nous des criminels en devenir ? Devrons-nous les jeter en prison ? Cette erreur n'est pas nouvelle. C'est la même qui nous fait arrêter les gens dans leur voiture parce qu'ils sont noirs ou arrêter des gens dans les aéroports parce qu'ils sont musulmans. - Bruce Schneier https://www.schneier.com/blog/archives/2013/06/finding_sociopa.html
  • 24. ENJEUX > La Fin de l'anonymat ? « En réalité, la protection de la vie privée est peut-être une anomalie ? » - Vinton Cerf
  • 25. ENJEUX > La Fin de l'anonymat ? « L'anonymat est devenu algorithmiquement impossible » - Arvind Narayanan http://www.internetactu.net/2009/09/21/critique-du-web%C2%B2-34-toutes-les-donnees-sont-devenues-personnelles/ http://www.internetactu.net/2013/06/25/peut-on-fouiller-les-donnees-des-telephones-mobiles-en-respectant-la-vie-privee/
  • 26. Enjeux > Le TEMPS DES CORRELATIONS et LA Fin DU LIBRE-ARBITRE ? « Nous entrons dans un monde de prédictions basées sur des constantes qui pourraient ne pas être en mesure d’expliquer les raisons de nos décisions. » Demain, un médecin pourra décider d’une intervention médicale uniquement parce que les données le lui auront indiqué, sans même en comprendre la raison… Et on entend très vite les conséquences que cela aura sur la liberté et la dignité humaine. Quel rôle sera laissé à l’intuition, à la foi, à l’incertitude, à notre libre arbitre, à notre liberté à agir en contradiction avec les preuves, à l’apprentissage par l’expérience ? A l’heure des corrélations, que va devenir notre idéal, notre capacité à toujours chercher la causalité ? http://www.internetactu.net/2010/12/16/du-role-predictif-des-donnees-a-la-gouvernementalite-algorithmique/
  • 27. Enjeux > La fin de la politique ? « La gouvernementalité algorithmique est un pouvoir qui fonctionne en courtcircuitant notre moralité, notre capacité d’entendement et de volonté, ce qui est très différent du mode de gouvernementalité par la loi qui permet de mesurer le pour et le contre de l’infraction à la règle. La gouvernementalité par le droit fabrique des sujet capables d’entendement et de volonté. (…) La gouvernementalité algorithmique est une hypertrophie de la sphère privée et une disparition de la sphère publique ! » - Antoinette Rouvroy « Une politique publique c’est le fait de refuser de prendre en considération des corrélations. Or, il semble que désormais, les corrélations sont devenues corrél l’expression d’une parfaite efficacité du savoir, d’une parfaite appropriation d’une action. » - Thomas Berns http://www.internetactu.net/2011/11/17/refaire-societe-quels-nouveaux-lieux-de-convivialite/ http://www.internetactu.net/2012/09/12/comprendre-les-nouvelles-formes-de-citoyennete-a-lheure-du-numerique/
  • 28. SOLUTIONS >L'OBFUSCATION : créer DE LA CONFUSION
  • 29. SOLUTIONS >L'ingenierie inversee “Nous vivons à l’intérieur de systèmes invisibles aussi courants que des formulaires d’assurance, des demandes de prêts, d’emplois, de rencontres… et nous tentons de nous y ajuster consciemment en fournissant les informations que nous pensons être les plus appropriées ou les moins mal interprétées par ces systèmes.” - Frank Swain Nous ne connaissons ni les règles des algorithmes ni quand elles sont modifiées… Notre seul repère consiste à observer par essai/erreur, afin d’apprendre ce qui ne lui convient pas. Nous apprenons en dansant ! http://www.internetactu.net/2013/10/08/surveiller-les-algorithmes/
  • 30. SOLUTIONS > REGLEMENTER ! - Diminuer la collecte : désarmement ! - Personnaliser sans identifier - Rendre public les facteurs/critères pris en compte - Interdire certains types de croisements - Obfuscation par défaut - Données éphémères - Opt-in par défaut - Privacy by design - Nouvelle fiscalité des données - Procédures équitables - Surveiller les surveillants - Protéger les dénonciateurs http://www.internetactu.net/2013/06/20/pour-une-autre-innovation/ http://www.internetactu.net/2013/06/13/lutter-contre-la-surveillance-armer-les-contrepouvoirs/
  • 31. SOLUTIONS > Pour une autre innovation « C’est l’humain qui doit contrôler la machine, et jamais l’inverse. Cette promesse, c’est celle du logiciel libre, c’est celle des services décentralisés, c’est celle du chiffrement. Mais toutes ces technologies ont en commun de nécessiter un effort actif de participation de la part de l’utilisateur… Eh oui, la liberté a un prix ! » - Jérémie Zimmermann « Ceux qui aiment la liberté doivent la réparer » - Bruce Schneier http://www.internetactu.net/2013/06/20/pour-une-autre-innovation/
  • 32. Merci ! E-mail : hubertguillaud@gmail.com Retrouvez cette présentation sur http://fr.slideshare.net/hubertguillaud Sur Twitter @hubertguillaud et @internetactu Lisez http://www.internetactu.net Adhérez à la Fing http://www.fing.org