Web predictif-ertzscheid
Upcoming SlideShare
Loading in...5
×
 

Web predictif-ertzscheid

on

  • 3,619 views

 

Statistics

Views

Total Views
3,619
Views on SlideShare
1,155
Embed Views
2,464

Actions

Likes
3
Downloads
22
Comments
0

6 Embeds 2,464

http://affordance.typepad.com 2458
http://www.affordance.typepad.com 2
http://serdalab.com 1
https://twitter.com 1
http://webcache.googleusercontent.com 1
http://www.google.fr 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment
  • Suggestion et auto-complétion : pas loin de l’auto-suggestion. Sauf que là elle est médiée par Google. Donc Google nous dit quoi penser, quoi chercher, quoi trouver. Il est toujours plus facile de fournir les bonnes réponses quand on connaît les questions à l’avance. 100 000 recherches par seconde. Plus de 3000 milliards de recherches par an.
  • 1.a) l’activité du robot de lecture, ses actes de lecture: scanner, crawler, indexer. b) les produits dérivés de cette activité, les textes de lecture en langage humain. 2.a) l’association des lectures humaines et des lectures machiniques. b) la commercialisation des lectures humaines définies comme «hits». 3.a) l’espace des lectures industrielles est le face-à-face des industries de lecture et des publics de lecteurs. b) l’industrie de la lecture entreprend la commercialisation de toutes les lectures, sous le slogan de l’ «accès à toute l’information». c) l’industrie de la lecture entreprend aussi la commercialisation des lecteurs." Aujourd'hui les moteurs ne sont plus de "simples" indexeurs mais également des scripteurs capables de s'affranchir du code de l'auteur, donnant à l'expression "écriture industrielle" tout son sens.
  • Suggestion et auto-complétion : pas loin de l’auto-suggestion. Sauf que là elle est médiée par Google. Donc Google nous dit quoi penser, quoi chercher, quoi trouver. Il est toujours plus facile de fournir les bonnes réponses quand on connaît les questions à l’avance. 100 000 recherches par seconde. Plus de 3000 milliards de recherches par an.
  • traitement par lots, enchaînement automatique de commandes (processus) sur un ordinateur sans intervention d'un opérateur.
  • Le « high frequency trading », très développé chez les arbitragistes (hedge funds et comptes propres de banques), consiste à jouer sur les inefficiences des marchés que la volatilité a démultipliées ces derniers mois. Dans un cas simple, le gérant achète une grande quantité de titres (plutôt liquides de type « blue chips ») sur une plate-forme pour les revendre presque instantanément sur une autre où le prix était supérieur, en toute transparence « pre-trade » : le premier cours va monter et le deuxième baisser, rendant les marchés plus efficients (d'autres arbitrages porteront par exemple sur deux valeurs différentes mais corrélées). A ce jeu où deux algorithmes équivalents vont détecter l'incohérence, c'est l'exécution la plus rapide qui l'emporte. D'où une course à la « milliseconde », qui se traduit par un rapprochement géographique entre plates-formes, intermédiaires et arbitragistes. Pour raccourcir encore la période de latence, les plates-formes proposent même désormais dans leurs locaux des postes en colocation à destination des autres intervenants : bientôt 300 installés chez Nyse Euronext grâce au déménagement informatique dans le sud-est de l'Angleterre.

Web predictif-ertzscheid Web predictif-ertzscheid Presentation Transcript

  • "Le web : entre stratégies prédictives et technologies injonctives." Le pitch : souligner la part croissante que prennent certains biotopes informationnels, au travers des stratégies algorithmiques déployées, dans la guidance (doux euphémisme) des requêtes et ladressage (au double sens du terme) des besoins de notre cycle informationnel connecté.ERTZSCHEID Olivier. Université de Nantes.9 Avril 2013.http://www.affordance.info
  • Préambule : Prédiction partout.• «La MIT Sloan Management Review a étudié 3000 entreprises, répartis dans 108 pays et 30 secteurs industriels différents (…). Avec le volume d’informations considérables dont disposent les entreprises aujourd’hui, il est possible d’anticiper et de prévoir bien plus qu’au lendemain. De nombreux acteurs l’ont compris : des banques (HSBC, UniCredit), mais aussi des sites marchands (Amazon, UGC, Meetic, Walgreens dans la pharmacie), des éditeurs de contenu (Allociné), des grandes enseignes de la distribution (Procter & Gamble, Unilever), des assureurs, des entreprises de téléphonie… – http://www.journaldunet.com/ebusiness/expert/53529/l-analyse-predictive---nouveau-veau-d-or-de-l-ere-digitale.shtml – http://sloanreview.mit.edu/reports/analytics-the-new-path-to-value/• Moteurs de recherche « prédictifs » : – https://www.recordedfuture.com/ (google et CIA dans investisseurs) http://statosphere.fr/website/post/2011/09/14/recorded-futur-moteur-de-recherche-modele-predictif• Police prédictive : http://www.internetactu.net/2011/09/19/la-police-predictive-lalgorithme-du-crime/• Prédire l’article en décodant le présent : – http://www.ledevoir.com/societe/science-et-technologie/331686/predire-l-avenir-en-decodant-le-present-numerique (100 millions d’articles de sources ouvertes) – Microsoft : « Mining the web to predict future events » http://research.microsoft.com/en-us/um/people/horvitz/future_news_wsdm.pdf Fouille de 22 ans d’articles de presse pour en extraire des « patterns » pour faire tourner ces patterns sur de la documentation d’actualité et voir si mêmes causes produisent les mêmes effets
  • Argument
  • Net Neutrality ou Web neutralisé ?• Du point de vue des grandes firmes de l’accès, la question de la neutralité est d’abord celle de la possibilité - que nous leur laissons ou qu’elles s’accordent - de neutraliser tout ou partie des contenus du web. Elles en avaient la capacité* elles en ont désormais la nécessité** et le besoin ( « capitalisme linguistique » ***)• Stratégies de « neutralisation » d’autant plus fortes que les firment en question sont fermées (ou phagocytent externalités), et propriétaires du service ou ont une « délégation » totale sur les contenus (YouTube)• Cette neutralisation implique de maintenir chez les internautes une opacité maximale sur les stratégies de guidance des requêtes (adressage) et de collecte des données (publicité) ainsi qu’un contrôle optimal sur les interactions en ligne.• Les exemples ne manquent pas … * http://affordance.typepad.com/mon_weblog/2009/02/google-presque-fatal-error.html ** http://pro.clubic.com/legislation-loi-internet/telechargement-illegal/actualite-552002-google-censure-sites-pirates.html) *** http://fkaplan.wordpress.com/tag/capitalisme-linguistique/
  • Dernier en date …• http://www.numerama.com/magazine/25580-apple-pousse-izneo-a-censurer-1500-bandes-dessinees.html• « la boutique contre le bazar » : http://affordance.typepad.com/mon_weblog/2010/05/la-boutique-contre-le-bazar.html• « Last document on earth : l’industrie lourde de la dématérialisation » http://fr.slideshare.net/olivier/forum-mediasertzscheid (diapos 15 à 30)• Pose la question de l’édiction de normes sociales (Apple : 400 millions de CB, FB : 1 milliard d’individus)
  • Comment enest-on arrivé là ??
  • LÀET LÀ 7
  • 1998 : 1er indice• Postule que Google « sait déjà », « a prédit » non pas ce que vous cherchiez, mais la réponse qui vous conviendra le mieux• Prédiction inscrite : – dans les gènes de l’algorithme (PageRank > graphe > modélisation des arêtes et nœuds les plus saillants) – et de l’interface (bouton « feeling lucky »)
  • From « privacy » to « predictibility » • Publicité + Marketing > Publicité contextuelle (« ads are content ») + Marketing comportemental > Big data • Résurgence trop tardive des problématiques de « Privacy » * • Résultat : « Marketing Big Data et segmentation attitudinale (sic) » ** • « Opinion mining et sentiment analysis » *** de Boullier et Lohard (2012) – passage de « web neutralité » à « web réalité » (au sens de télé réalité) – le pulsionnel comme régime d’attention, le sentiment et l’opinion comme grille de lecture.* http://www.pnas.org/content/early/2013/03/06/1218772110** http://lecercle.lesechos.fr/entrepreneur/marketing-communication/221166693/marketing-big-data-nouveau-traitement-donnees-non-str*** http://books.openedition.org/oep/204
  • Les 6 étapes de la neutralité1. Neutralité initiale des tuyaux et des protocoles (TCP-IP)2. Neutralité suivante des contenus (indexation et accès)3. Neutralité croisée des tuyaux/protocoles ET DES contenus ET DES accès (paradigme Google / YouTube)4. Collision (conflits d’intérêt de bande passante et de référencement)5. Collusion (régies publicitaires dans les tuyaux sur les contenus) http://www.mozilla.org/en-US/collusion6. Neutralisation nécessaire et réciproque • des tuyaux vers les contenus : free AdGate • des tuyaux vers les accès (free / youtube) • des contenus vers les tuyaux : priorisation partenariale ou actionnariale : Orange / Deezer, FranceTélécom / Dailymotion, Google / YouTube, etc.) 10 http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0202480707577-google-investit-la-silicon-prairie-525638.php
  • Net et Web ontfusionné dans le « graph »
  • Avant : Net – Web – GraphDimensionnalité « étagée » permettant des adressages distincts GRAPH = Relations sociales WEB = plateforme de contenus NET = infrastructure 12
  • Maintenant : Net – Web - Graph FacebookNet Apple StoreGoogleNet 13
  • « l’internet des silos » Google Facebook Apple Amazon TwitterGoogle, Facebook, Apple, Amazon, etc sont SUR le web, ils utilisent l’infrastructure du Net, mais quand nous sommes chez eux nous ne sommes plus sur le web, nous n’utilisons plus l’infrastructure du net mais la LEUR. LEURS règles, LEUR règlement intérieur, LEUR système de paiement, etc… 14
  • « Moteurs »De la société des requêtes à la  société des réponses.
  • 16
  • Recherche Universelle : le principe• Témoigne d’une maturité dans les ingénieries de la prédiction, sans laquelle 17 toute « pertinence » (ou popularité) serait impossible à établir.
  • Motifs / PatternsSHOPPING  HEALTH  (digital  (Diabetes)  cameras) LOCAL  TRAVEL  (French (United 875) Restaurant) 18
  • La surabondance et la perte.• Jouer sur 2 angoisses• Roger Chartier : « Il y a ces deux éléments, qui me paraissent très liés l’un à l’autre. Ne rien perdre, ne rien laisser, une obsession patrimoniale, une obsession pour la conservation et en même temps un effroi devant une prolifération incontrôlable, indomptable de données, d’informations, de textes. Ces deux craintes de longue durée trouvent aujourd’hui sans doute une traduction originale. » http://reseaux.blog.lemonde.fr/2013/03/24/legende-noire-monde-electronique/) .• Accepter la prédiction ou les réponses avant les questions c’est : – Déléguer et donc désinvestir le risque de la perte (de livres rares, de nos données personnelles, de nos photos) – Accepter – paradoxalement - l’idée d’un renoncement à l’abondance (je ne suis pas capable de gérer ce « trop » de données, d’informations, d’images, etc) – Résultat : création de nouvelles corporations du filtre doublement légitimées par notre notre délégation et notre acception de ce renoncement
  • La surabondance et la perte.• Problème 1 : cette surabondance est très largement artificielle (spams, histoire des 1000 pages de résultats de google qui ne sont pas plus de 10) et superficielle (web de surface VS « deep web »)• Problème 2 : surabondance est la condition de création d’une situation de dépendance et d’addiction (FOMO).• Problème 3 : elle permet aux mêmes de tarir le flux du jour au lendemain (Greader récemment), de supprimer l’histoire (http://en.wikipedia.org/wiki/Google_News_Archive) pour renforcer leurs écosystèmes et/ou leurs internalités.
  • Description > restitution > prescription > prédiction Société des requêtes Société des réponses• Annuaires • le web « décrit » • Moteurs • le web « restitué » • Aujourd’hui et demain • Le web « prescrit » • Aujourd’hui et demain • Le web « prédit » 21
  • Descripteurs > Prescripteurs > Scripteurs > Proscrits • Moteurs ?? • Descripteurs > Dé-scripteurs • Lecteurs (lectures industrielles*) • Prescripteurs > Pré-scripteurs • Scripteurs : – « Google aurait pris lhabitude, dans certains cas, de changer le contenu du lien quil propose, sans prendre en compte le contenu de la balise TITLE de la page. Dans une ancienne vidéo, Matt Cutts avait effectivement dit que "Google se réservait le droit de choisir un titre qui lui semblerait meilleur. »** • Vers un web proscrit ? – « en août 2012, Google annonce une modification de lalgorithme de son moteur de recherche,1  limite de  ère visant principalement à faciliter le déclassement des sites qualifiés de pirates : une page signaléeneutralités  comme contenant des éléments illégaux par un ayant-droit se retrouve ainsi, depuis, déclassée des résultats du moteur. » **** http://alaingiffard.blogs.com/culture/2007/09/lectures-indust.html** http://actu.abondance.com/2011/02/google-change-les-titres-de-pages-dans.html 22*** http://pro.clubic.com/legislation-loi-internet/telechargement-illegal/actualite-552002-google-censure-sites-pirates.html
  • La souscription comme point de rupture ?• TEMPS DE L’E(S)CRITURE• Web décrit > Web prescrit• POINT DE RUPTURE• Web souscrit (RSS, sub-scribere, sous autorité*) – « troisième âge de la navigation : après le browsing et le searching voici venu le temps du "subscribing". On ne navigue plus, on ne recherche plus, on sabonne, on "souscrit". (…) "souscrire", "sub-scribere", littéralement "écrire en dessous", une écriture "sous autorité" : en agrégeant les discours écrits ou postés par dautres, on est, de facto, placé "sous" une "autorité" qui nest plus notre. »• TEMPS DE LA DICTION (retour à l’oralité – technologies vocales**)• Web prédit. Prédiction est une « pré-diction » Implique et nécessite une « dégradation »  des processus d’écriture eux-mêmes* http://affordance.typepad.com/mon_weblog/2005/11/moebius_le_web_.html** http://affordance.typepad.com/mon_weblog/2012/03/la-voix-du-web.html
  • Disparition de  l’écriture manuscrite ?• http://quoi.info/actualite-education/2013/02/21/apprendre-a-ecrire-a-lecole-bientot-demode-1161153/ 24
  • Neutraliser l’écriture.Jusqu’où et comment ?
  • Les 5 moments de l’écriture en réseau. http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html • écriture "primaire" hypertexte 1 – activité centrale : le lien // dynamique est avant tout topologique – régime est celui de lautorité (nous en sommes, collectivement les auteurs).
  • Les 5 moments de l’écriture en réseau. http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html • écritures "secondaires" industrielles – – issues des « lectures industrielles » // activité centrale est celle de lindexation, Dynamique algorithmique // Régime dindexabilité : nous nen sommes plus que les co-scripteurs. 2
  • Les 5 moments de l’écriture en réseau. http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html • écritures "tertiaires" de la souscription et de lagrégation 3 – activité centrale : la souscription // Dynamique temporelle (synchronie, a-synchronie). – régime de lautoritativité (dont nous sommes tantôt les sou-scripteurs tantôt les dé-scripteurs
  • Les 5 moments de l’écriture en réseau. http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html• Les écritures figuratives 4 – écritures attentionnelles recentrées, des écritures de soi – tentation de devenir des écritures de la délation ou de la dilation.
  • Les 5 moments de l’écriture en réseau. http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html• des écritures applicatives 5 – écritures littéralement dépareillées, dés-appareillées // emblématiques du web « pousse-bouton » – activité centrale : activité documentaire de thesaurisation // Dynamique cumulative – Régime de nature discrétionnaire et concentrationnaire.
  • Objectif : « il n’y aura plus que des réponses »
  • Aliénation & stéréotypiesLes « moteurs de recherche » ont été remplacés pardes « moteurs de suggestions »*Google suggest > suggestions derecherche*Google Instant Search > auto-complétion + affichage de résultatsen cours de frappeLA RÉPONSE AVANT LA QUESTION **Leur « puissance de frappe » impliquenotre absence de frappe. ** http://affordance.typepad.com/mon_weblog/2010/09/la-reponse-avant-la-question.html 32
  • Web stéréotypique• STÉRÉOTYPIE COMME IDÉALISATION ALGORITHMIQUE DU « PATTERN », DU « MOTIF ».• "Lidée de jugement en extrême a pour but de ne présenter quune seule réponse, une seule voix, sans aucune solution de rechange. (...) Voilà pourquoi les stéréotypes sont les éléments qui incitent à laction. Ils donnent la solution ultime. On ne discute pas, on agit."• Moteurs : non plus répondre à mes questions mais apporter LA réponse aux questions des autres en m’incitant à penser qu’elles sont miennes également. « Un » résultat actionnable et monétisable• Pourquoi ? – Pour maintenir linternaute au coeur de lécosystème hôte – Permettre à l’écosystème hôte de garantir le couplage structurel entre lintentionalité présidant au requêtage et une action de consultation (« taux de transformation »).• http://www.affordance.info/mon_weblog/2012/06/google-cache-des-juifs.html
  • L’envers de lacomputation
  • • Technologies de l’abstraction – Mathématique // Statistique (loi des grands nombres > Big Data)• Technologies de la modélisation – Algorithmique, programmation // « patterns »• Technologies de la représentation – Aide à la décision (systémes décisionnels) – Outils prédictifs• 1er temps (LOGOS) : les machines se servent de nos représentations (discours, pages web) pour produire des modèles (algo) et les alimenter à l’aide de données (statistiques) 2ème limite• 2nd temps (TOPOS) : boucle inversée > les machines se servent de données (statistiques) pour de modéliser des comportements (algo) et y associer des représentations (discours, pages web) neutralités
  • A la marge : 1 approche fractale de la prédiction• http://www.zdnet.fr/actualites/reseaux-sociaux-de-la-veille-en-temps- reel-a-l-analyse-predictive-39789011.htm• De la veille en temps-réel à l’analyse prédictive. Postule que le temps réel est une contraction exacte des événements futurs• Prédire le prochain « buzz »• N’est que la partie émergée de l’iceberg.
  • Les politiques algorithmiques : les 4 temps MATCHING : documentation comme croisement 2 des extériorités (moteurs de recherche / PageRank « bibliométrique » ) WATCHING : la documentation comme1 vue sur le monde (classifications, annuaires). CATCHING : documentation comme captation3 (des informations :Indexation ; puis de l’attention (réseaux sociaux) TRADING : capitalisation autocentrée des flux. 4
  • Les politiques algorithmiques HFD. High Frequency Documenting.• High Frequency Trading (HFT) : aucune intervention humaine ; algorithmes « donneurs d’ordres » sur les marchés, à la milliseconde. http://www.agefi.fr/articles/le-high-frequency-trading-flash-trading- 1107761.html• HFD = Internet des silos (Big Data) + indexation temps-réel + personnalisation + redocumentarisation• HFD par l’exemple : – On gère des flux (boursiers / documentaires) – On capitalise sur ces flux (« capitalisme linguistique » : http://fkaplan.wordpress.com/2011/09/07/google-et-le- capitalisme-linguistique/ + travaux Alain Giffard et B. Stiegler sur Lectures industrielles 3ème limite http://www.journaldunet.com/ebusiness/le-net/trafic-web-robots-0312.shtml) de – Production de richesse en circuit fermé, dans une OPACITÉ TOTALE neutralités
  • À coup sûr. Et à coût cognitif nul. • Pacte Faustien de la prédiction : coût cognitif doublement nul – J’accepte la prédiction / suggestion car elle m’économise le coût de la formalisation d’une recherche – J’accepte de remplacer des externalités de navigation par des internalités de consultation (tout est fait pour être visionné, accédé, consulté, répondu à l’intérieur du biotope ou de l’écosystème / paradigme de l’identifiant unique) • Manière drastique de régler le « lost in hyperspace problem » de Conklin** : annuler la possibilité de 4ème limite désorientation et surcharge cognitive par une re- de territorialisation contrainte, dont la géolocalisation neutralités n’est que l’instance la plus faible. ** Conklin, E. Jeffery. "Hypertext: An Introduction and Survey." IEEE Computer 20 (September 1987): 17-41.
  • 2 stratégies • Effet « petit monde » / jardins fermés – Web des silos. Chaque acteur a intérêt à favoriser / valoriser / orienter les résultats de son écosystème direct. Peut d’autant mieux le faire que hyper-territorialisation • Effet « grand monde » / externalités contrôlées. Re- territorialisation. – Prédiction algorithmique est une question de topologie (graphe) et de randomisation contrôlée, modélisée (algorithme Pagerank)
  • Google, Facebook, Apple, Amazon, etc sont SUR le web, ils utilisent l’infrastructure du Net, mais quand nous sommes chez eux nous ne sommes plus sur le web, nous n’utilisons plus l’infrastructure du net mais la LEUR. LEURS règles, LEUR règlement intérieur, LEUR système de paiement, etc… RAPPEL … Google Facebook Apple Amazon Twitter 41
  • D’une dynamique de publication à une logique de détention. Une (autre) histoire du webPublication > Attention > Intention > Prédiction > Rétention > Détention
  • PUBLICATION > Attention > Intention > Prédiction > Rétention > Détention• Logique de publication (matrice originelle du web)• 1 homme, 1 page, 1 adresse http://www.ecrans.fr/Le-web-promesse- tenue,15605.html
  • • Économie de l’attention (essor conjoint du web 2.0 et de ses « conversations » - cf retour à oralité déjà évoqué)
  • • « We don’t need taxonomy of knowledge. We need taxonomy of desire, a marketplace of intent » Prabhakar Raghavan. Head of Research and Strategy chez Yahoo! Sept. 2008 Source : http://battellemedia.com/archives/2010/03/database_of_intentions_chart_-_version_2_updated_for_commerce.php
  • • ingénieries relationnelles de la prédiction• Comportements, sentiments, désirs, pulsions …
  • • Biotopes attentionnels de la rétention (keep data)• Data « centers ». Centralité en contradiction fondamentale avec principes de l’hypertexte (Lévy), dont extériorité et mobilité des centres.
  • • jardins fermés de la Détention (web carcéral des jardins fermés)• Internet des silos• Extériorités « tolérées » dans la mesure où elles renforcent les dynamiques (économiques) propres au biotope• Interactions dégradées, de « bas niveau », kakonomiques**.• Socialisation dégradée, à l’image d’un requêtage rendu inutile** http://affordance.typepad.com/mon_weblog/2011/01/kakonomie-culturomie-et-folksonomie.html« "La kakonomie cest létrange mais très largement partagée préférence pour des échanges médiocres tant que personne ne trouve àsen plaindre. (…) La kakonomie est régulée par une norme sociale tacite visant à brader la qualité, une acceptation mutuelle pour unrésultat médiocre satisfaisant les deux parties, aussi longtemps quelles continuent daffirmer publiquement que leurs échangesrevêtent en fait une forte valeur ajoutée.
  • Je prédis que je suis en retard, donc … pour conclure
  • 1ère limite 2ème limite de deneutralités neutralités Carré sémiotique de la neutralité des opérateurs de l’accès3ème limite 4ème limite de deneutralités neutralités Topos l’emporte sur « logos » Re/hyper-territorialisation Web proscrit Web « neutralisé » Web « neutralisé » Internet (interweb ?) des silos Internet (interweb ?) des silos Trading (monétisation et capitalisation des flux + délégation algo)
  • Enjeu politique : de Norman Muller à Nate Silver• La prédiction est d’abord un outil et en enjeu « politique »• Asimov « Le Votant ». http://affordance.typepad.com/mon_weblog/2012/06/le-petit-lien-du- votant.html• « Matthew regarda gravement la petite fille, puis il la souleva et l’assit sur son genou (…) — Je ne suis pas fâché contre toi, Linda. Mais, tu comprends, parfois il fallait toute la nuit pour compter ce que tout le monde avait dit, alors on s’impatientait. On a donc inventé des machines spéciales, capables de regarder les quelques premiers votes et de les comparer avec le nombre des voix au même endroit, au cours des années précédentes. Comme ça, la machine pouvait calculer le total des voix et faire savoir qui était élu. Tu vois ? Elle hocha la tête. — Comme Multivac. — Les premiers ordinateurs étaient bien plus petits que Multivac. Mais les machines sont devenues de plus en plus grandes et elles ont pu donner le résultat de l’élection avec de moins en moins d’électeurs. Finalement, on a construit Multivac, il est capable de donner le résultat avec un seul votant. »• Google est démocrate. Facebook est républicain …
  • Questionnement éthique.• // avec bioéthique.• La question n’est pas celle de l’intimité « sur le web ». Il n’y a pas d’intimité possible dans un espace public ou semi-privé. En revanche, nos environnements informationnels connectés sont, avec notre corps, ce que nous avons de plus intime dans notre rapport au monde. La question de l’intimité n’est donc pas liée à ce que nous faisons de notre corps (même virtuel) DANS le monde numérique mais à la manière dont notre intimité corporelle fait interface avec nos pratiques numériques. Les interrogations – légitimes – autour de la « privacy » sont avant tout des manières de questionner ce couplage.• Mais aucun comité d’éthique du web.• #ohwait : 1ère démarche éthique est une démarche épistémologique • "Mieux ou pire, le numérique par ses capacités calculatoires permet de reconstruire des documents à la demande et nous donne lillusion davoir toutes les réponses à nos questions avant même quelles ne soient posées, comme si notre futur était un destin déjà inscrit dans les machines. » Salaün Jean-Michel • http://blogues.ebsi.umontreal.ca/jms/index.php/post/2011/09/19/Document-et-protodocument
  • er ci..? . .M qu e st ion s .? .q ue T gm ail.co m sc h r.ertz w.affor sti eid A dance.info SA ibliog ivie V : ol phie : ww ra o ns B .? . 53