Your SlideShare is downloading. ×
Innovation dans les médias
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Innovation dans les médias

636
views

Published on

Un point sur l'innovation dans les médias - Cours au CFPJ - Par

Un point sur l'innovation dans les médias - Cours au CFPJ - Par

Published in: Design

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
636
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
3
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide
  • Bouger un peu, avoir des jobs un peu différents, dans différents médias, ça aide à voir les choses sous différents angles, il faut éviter de se scléroser dans un même univers MAIS Tous les moments où j’ai pu innover dans ma carrière risquent de ne plus se reproduire Créer des journaux papier 1984 informatiser des journaux 1987 Gérer des rédactions déportées (Albertville) 1992
  • L’économie numérique a changé toutes les donnes et pas seulement celle de l’info Un des livres fondateurs de la nouvelle économie, celle du numérique: La terre est plate de Thomas Friedman, journaliste américain au New York Times et détenteur de trois Prix Pulitzer. Au passage, notez qu’en américain, c’est le monde qui est plat, ça fait déjà deux conceptions différentes. Comme vous le savez, l’univers moderne était vu jusqu’à présent comme une sorte de spirale de l’espace-temps, comme sur se schéma que j’ai piqué au quotidien allemand Die Zeit qui de temps en temps publie des schémas extraordinaires! Mais patatras Le temps et l’espace se sont effondrés ou plutôt l’espace-temps s’est effondré puisqu’on sait que les deux sont liés. à cause d’une part de la mondialisation , c’est l’abolition des frontières géographiques, le marché est mondial et d’autre part de la numérisation , qui rend tout disponible immédiatement, c’est l’abolition du temps. Mondialisation + Numérisation = c’est elle la convergence historique qu’on peut analyser en danger ou en opportunité suivant l’angle qu’on veut prendre. Au passage, notons qu’il ne reste plus que le problème du délai de livraison des objets physiques ! La logistique est un créneau d’avenir! Les conséquences sont très nombreuses: La taille de l’entreprise n’a plus d’importance: une start-up peut démarrer dans un garage et devenir en moins de 5 ans la plus grosse capitalisation boursière de toute l’histoire Sa localisation, sa nationalité, celles de ses capitaux non plus, aucune importance L’entreprise peut être multiple, étendue, en réseau: les organisations et les modes de fonctionnement et donc les systèmes d’information ne sont plus des modèles figés - Plus l’activité de l’entreprise est fondée sur le traitement de l’information, plus elle pourra bénéficier des technologies et du web 2.0; et même si l’entreprise a une part industrielle, matérielle, physique encore importante, l’ensemble de son organisation et donc sa performance est basée sur son système d’information. Donc , à l’heure des strucutres en réseau, la structure traditionnelle d’entreprise de média n’est plus une condition, c’est même sans doute un frein.
  • «   Découvrir, c’est voir les mêmes choses que les autres et penser autrement » disait Albert Szent-Györgyi, Prix Nobel de médecine. Et il sait de quoi il parle ce monsieur: comme il était hongrois, il a regardé le paprika qui comme vous le savez tous est un piment hongrois et il y a trouvé de la vitamine C. C’était en 1933. Ce schéma simplement pour montrer que si on veut innover encore faut-il savoir où: jamais les technologies n’auront été aussi importantes dans le traitement et la diffusion de l’information; le pb c’est qu’elles bougent beaucoup; en dix ans elles ne dessinent plus du tout le même paysage; il y a dix ans c’était le FTP et l’e-mail qui dominaient internet, aujourd'hui c’est le web (c’est—à-dire pour être précis le protocole http) et le peer to peer comme les systèmes de téléchargement de musiques et de films, sacahnt que dans le peer to peer là aussi il y a au moins deux technologies qui n’on tpas du tout le même imapctg suyr le traffic: L e peer to peer classique , historique où mon PC accède à plusieurs autres PC en même temps pour télécharger plus vite le bittorrent où il y a un critère de plus, fondamental : plus moi je mets à la disposition des autres des fichiers de mon PC (en upolad donc), plus mon téléchargement sera rapide Donc aujourd’hui quand vous regardez ces courbes si vous voulez quelque chose sur internet n’importe quoi que ce soit vendre du yaourt ou de l’info qui puisse trouver le plus large public, ce n’est pas en faisant un site web même 2.0 c’est en faisant du peer to peer.
  • Quelques mots sur le web 2.0 et leur impact sur l’information On dit souvent que le web 2.0 ce ne sont pas des nouveaux outils mais des outils qui existaient déjà et remis au goût du jour. C’est possible mais en tout cas les perspectives offertes sont incroyablement plus larges et on peut au moins parler à chaque fois de nouvelle génération d’outils. Je prends trois exemples: 1/ Le moteur de recherche Ce qui change fondamentalement dans l’accès à l’information c’est la possibilité de passer directement par des moteurs de recherche dont la petite fenêtre visible à l’écran n’est évidemment que la partie émergée de l’iceberg.  Une des illustrations les plus frappantes de ces nouveaux usages est l’utilisation du moteur de recherche intégré à Windows Vista. Il permet de retrouver très vite n’importe quel programme ou document disponible sur son ordinateur. Plus besoin d’afficher des arborescences de dossiers ou de fichiers, plus besoin de chercher le bon élément au milieu d’une longue liste. On peut même ne plus se souvenir du nom exact du document : il suffit de taper un mot reconnaissable inclus dans son contenu et le moteur de Vista retrouve le fichier. On voit bien ainsi que non seulement l’accès à l’information mais aussi son organisation interne a changé. La notion de base de données elle-même est en train d’évoluer. Les mots-clés importent désormais davantage que les champs structurés. Quant aux moteurs de recherche sur le web, il n’y a pas que Google, il y a Kartoo ou Kvisu, il existe maintenant des dizaines de concurrents de Google qui tous vont beaucoup plus loin dans de nombreux domaines pour des résultats plus pertinents, donc moins nombreux. En tant qu’archétype des moteurs de recherche, on peut dire que Google est totalement dépassé, il ne joue plus que sur la place formidable qu’il a prise dans la société, en attendant qu’il rebondisse sur de nouveaux algorithmes mais cela fait longtemps qu’on les attend. Exemples: http://www.pleegs.com démo on line possible en cliquant sur le logo pleegs. 2/ Le moteur de recommandation Les internautes ont été agréablement surpris lorsqu’Amazon a inauguré ses fameuses fonctions de conseil de proximité : « les lecteurs qui ont acheté ce livre ont aussi acheté celui-ci » et cette fonction a été un extraordinaire levier de ventes. C’est avec ce type de moteur de recommandation qu’a été mis en application dans le commerce électronique le modèle de la « Longue Traîne » (Long Tail) développé par Chris Anderson, rédacteur en chef du magazine Wired : ce ne sont plus 20% des produits qui font 80% des ventes mais 90% des produits qui font 90% des ventes ! Les premiers moteurs de recommandation sont déjà en passe d’être supplantés par une deuxième génération qui ne se contente pas d’analyser des comportements d’achats mais qui tente d’entrer encore plus intimement dans le parcours de l’internaute sur le web. On dit même de ces moteurs qu’ils sont capables de vous faire acheter quelque chose dont vous ne saviez même pas que vous aviez envie ! Ces algorithmes trouvent également une application dans le ciblage publicitaire qui change également de génération : d’un affichage dynamique contextuel dépendant du contenu de la page, on passe à un affichage généré en fonction du parcours de l’internaute sur le web. Là aussi, ce n’est que par une organisation préalable des flux telle que celle apportée par la GED que l’on peut affiner ce type de projets. Sur certains sites de e-commerce, jusqu’à 30% des ventes viennent des moteurs de recommandation. Nouveaux moteurs = ChoiceStream, AggregateKnowledge, CleverSet Exemple: achetez un bouquin sur le camping en Alaska et on vous suggèrera un sac de couchage résistant à -30° ! 3/ Le nuage de tags Le tag (ou balise, ou descripteur) est ce mot-clé choisi par l’internaute pour caractériser un élément d’information qu’il crée ou qu’il met à la disposition des autres. Il n’est pas pris dans une liste pré-établie mais inventé par chaque participant. Le système capable de les utiliser peut ensuite afficher les mots-clés les plus cités en leur donnant une taille appropriée à leur importance relative et c’est ainsi désormais que l’on accède à l’information. Les anglo-saxons ont inventé le mot de « folksonomy » pour signifier qu’il s’agit d’une taxonomie, d’un classement, inventé par le peuple, par les gens. Le nuage de tags créés par les internautes a remplacé la liste arborescente des index créés par les documentalistes. Ces trois tendances, parmi d’autre, illustrent bien l’évolution des comportements face à la gestion moderne de l’information : utiliser un langage naturel, tirer profit des systèmes intuitifs, analyser les comportements pour en déduire des nouvelles règles et inventer de nouvelles propositions. C’est ce que certains appellent l’agilité documentaire. Il ne s’agit plus de penser a priori et de faire rentrer la réalité dans ses hypothèses mais d’analyser cette réalité, dans toute sa richesse et sa diversité et d’en tirer des enseignements pour explorer de nouveaux territoires et accéder à davantage de connaissances.
  • D’ où un problème que je signale au passage et qui mériterait à lui seul tout un débat mais je ne ferai que l’évoquer ici: celui de l’infobésité, de la surcharge informationnelle. Annie Hudon, journaliste québécoise écrit au sujet de l’infobésité (terme inventé là-bas et reconnu par l'office de la langue française depuis 1995) : « On dit qu'au XVIIe siècle, une personne était exposée au cours de sa vie à moins d'information qu'on en retrouve dans une seule édition du New York Times. »* Tous les cogniticiens ne sont pas d’accord mais moi j’aime bien cette idée que notre cerveau est un disque dur à capacité très limitée, peut-être quelques gigaoctets seulement. Ce qui est assez nouveau, c’est l’interrogation sur l’accumulation des connaissances et le phénomène de saturation entraîné par l’utilisation intensive des T-I-C  : l’exemple immédiat est celui de la gestion des e-mails et des spams qui devient une tâche impossible. Ce symptôme est décrit, selon David Autissier et Saadi Lahlou , comme un Cognitive Overflow Syndrome . ** Certains auteurs vont encore plus loin et parlent de IOIU : Information Overflow Information Underuse; non seulement on a trop d’infos mais en plus on les utiliser mal Principe de pertinence = mode de fonctionnement du cerveau qu’on peut appliquer à l’information Il y a un texte de Dan Sperber et Deirdre Wilson qui l’explique très bien : « Qu’est-ce que la pertinence ? Le traitement de l’information par les êtres humains leur demande un certain effort mental et produit en eux un certain effet cognitif. L’effort demandé est un certain effort d’attention, de mémoire et de raisonnement. L’effet produit consiste en une certaine modification de croyances de l’individu : l’addition de nouvelles croyances, l’élimination de croyances antérieures ou simplement un affaiblissement ou un renforcement de croyances antérieures. » Ils en déduisent deux règles : - plus l’effet cognitif produit par l’information sur le destinataire est grand, plus elle sera pertinente pour lui ; plus l’information lui demande un effort de traitement, moins elle sera pertinente. Nous sommes tous des « deductive satisfacers » Dans la théorie moderne de l’information, avant qu’on parle de communication (au sens ou on parle d’un directeur de la communication), il y a déjà cette idée d’une adaptation au contexte et au destinataire. C’est l’introduction d’un humanisme qui n’existait pas auparavant parce que au départ tout ça est très scientifique la théorie de base a servi à l’informatique: traduire des données en 0 et en 1, ça peut se faire sans sentiment. Aujourd’hui les croyances reviennent en force, ce qui peut parfois fausser le raisonnement ou le simplifier. On s’arrête dès qu’on croit avoir compris, on est tous un peu flemmard. C’est ce que dit en tout cas Philip N. Johnson-Laird : « Les sujets qui parviennent à une conclusion putative qui coïncide avec leurs croyances auront tendance à arrêter de rechercher des modèles alternatifs qui pourraient réfuter leur conclusion, les gens sont des deductive satisfacers ». C’est cet esprit de paresse que flattent aujourd’hui les média en rabâchant tous les mêmes nouvelles. * http://culturetic.canalblog.com/archives/2005/10/10/876485.html *AUTISSIER David et LAHLOU Saadi, Les limites organisationnelles des TIC : émergence d’un phénomène de saturation cognitive , 4 e Conférence de l’AIM, 1999.
  • Extraits de http://culturetic.canalblog.com/archives/2005/10/10/876485.html Non seulement il y a aujourd’hui des tas de gens autres que les journalistent qui cherchent et traitent de l’info, mais en plus il y a aussi de plus en plus de systèmes plus ou moins automatiques: on est cerné par les internautes et par les robots! Je reviens quelques instants sur ce thème de l’infobésité pour dire qu’on n’a pas encore trouvé la solution même si beaucoup de gens tentent d’élaborer des méthodes , comme ici Sur son excellent blog, Jean-Paul Pinte, enseignant et chercheur de l’université catholique de Lille, propose un schéma des méthodes permettant de faire face à la problématique de l’infobésité. Il essaie de classer les nouveaux outils qui peuvent aider à mieux faire le tri et il en citge 5 catégories Son blog : « Veille pédagogique » http://veillepedagogique.blog.lemonde.fr/veillepedagogique L es métadonnées : Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées http://fr.wikipedia.org/wiki/Meta-donn%C3%A9e depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites. Seul le développement du Web sémantique http://fr.wikipedia.org/wiki/Web_s%C3%A9mantique , permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible. Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. On a déjà parlé du moteur de recherche intégré à Vista qui tend à devenir un nouveau mode d’accès à l’information ; comme c’est plus facile qu’avant de retrouver une info sur son PC, on passe moins de temps à la classer dans des arborescences compliquées et ce n’est pas plus mal! Dans Office 2007, on n’utilise pas assez par exemple les métadonnées de Word qui sont un outil formidable pourtant pour retrouver ensuite plus facilement ce qu’on cherche. Les agents intelligents : Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents http://fr.wikipedia.org/wiki/Agent_intelligent , préférables aux moteurs de recherche en de nombreux points : • ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ; • ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ; • ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ; • ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt. Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur. Les systèmes de cartographie de l’information : La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ». http://www.activeille.net/ Le texte-mining : C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. » http://www.definitions-marketing.com/ A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique http://www.lalic.paris4.sorbonne.fr/~minel/fichiers/TSI.pdf des textes. La taxonomie (ou taxinomie): « La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». http://projetconnaissance.free.fr/ Autre exemple, le génial moteur de recherche Kartoo. http://www.kartoo.com/fr_index.htm , avec une autre version Kvisu http://kvisu.com qui visualisent les réponses sous forme de cartes et de formes diverses Démo possible sur kartoo.com ou kvisu.com : faire une recherche sur « marc giget » ou « luc fayard » Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances ( knowledge management ) http://fr.wikipedia.org/wiki/Gestion_de_la_connaissance , individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage. Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste. »
  • Pour montrer comment les canaux de traitement et de diffusion ne sont plus les mêmes à l’heure de la société numérique, prenons quelques exemples Les blogs dépassent certainement la centaine de millions dans le monde: imaginez que c’est un contenu qui n’existait quasiment pas il y a 10 ans et même si on pense qu’il y a à boire et à manger dans ce contenu, passer à côté de ce phénomène serait une erreur stratégique majeure! Le wiki (quand on est snob comme moi on rappelle que c’est un mot hawaïen qui veut dire vite, rapide) c’est cette plateforme logicielle très simple, de type forum, qui s’installe en quelques minutes et qui permet de partager tout de suite de l’information; l’encyclopédie Wikipédia en est l’exemple le plus simple; là aussi c’est quelque chose qui n’existait pas il y a quelques années, qui est parti de rien et qui aujourd’hui est totalement incontournable, avec plein de défauts bien sûr (qui contrôle, qui valide, qui censure, etc.), mais c’est sans doute un des plus grands phénomènes de ces dernières années dans le domaine de la connaissance et de la culture; toute entreprise peut installer son propre wiki en quelques minutes, par exemple pour gérer un projet; un wiki par projet, c’est quelque chose qui se pratique depuis des années aux Etats-Unis et on constate déjà que les projets gérés de cette façon ont de meilleurs résultats que les autres. Mashup est un mot un peu barbare (ça veut dire broyer écraser et ça désigne au départ un genre musical qui est conçu en mélangeant d’autres musiques); disons pour simplifier que ce mot peut englober tout ce qu’on appelle agrégation de contenu: plutôt que de créer mon propre site web avec mes propres informations, je vais aller sur le web prendre ce qu’il y a de mieux sur chaque sujet qui m’intéresse et le coller immédiatement dans mon site; Autre techno : les widgets – contraction de windows et de gadgets - qui sont ces petites applications que tout un chacun peut reprendre et installer ; elles sont soit fournies par des éditeurs soir créées directement par des utilisateurs qui des diffusent dans leurs communautés; mashup et widget sont considérées aujourd’hui comme la nouvelle forme de développement des applications, ces sont des projets qui échappent souvent complètement au service informatique de l’entreprise et donc il y a urgence à les fédérer. Enfin le RSS (Reallly Simple Syndication) est une façon simple de s’abonner à un fil d’information un peu comme dans le temps le fil de l’AFP et cela permet d’avoir sa propre sélection d’information à partir des sources que l’on a choisi, qui sont mises à jour au fil de l’eau, automatiquement; la seule différence par rapport au fil de l’AFP c’est qu’il existe aujourd’hui des dizaines de milliers de fils RSS différents, le problème est de faire le tri.
  • Alros après avoir parlé de tout ce qui a changé dans l’info, il reste quand même quelques paramètres intangibles 1/ L’info c’est la surprise Formule de Claude Shannon, inventeur de la théorie de l’information en 1949, celle qui a créé le bit et finalement l’informatique. L’entropie H exprimée bits, c’est la quantité d’information, calculée comme : moins la somme des probabilités des diverses éventualités p possibles multipliées par le logarithme de base 2 de ces probabilités. Exemple: le côté pile ou face d’une pièce jetée en l’air a une probabilité p = ½ H = - (½ log½)+(½ log½) = - 2 (½ log½) = - log½ = 1 bit La quantité d’information apportée par une pièce qui tombe sur son côté pile (comme sur son côté face) est de 1 bit. Plus simplement : la quantité d’information dans un message est inversement proportionnel à la probabilité d’apparition de ce message Ou encore : l’information c’est l’incertitude résolue par l’apparition d’un message.
  • Dauphine - Magistère Gestion 2e année - 2006/2007 - Luc Fayard - Maîtriser son information 2/ L’info c’est la concision et faire court c’est du boulot Pascal ou Voltaire je ne sais plus qui écrit à une correspondante: « Je vous écris une longue lettre parce que je n’ai pas le temps de vous en écrire une longue » Félix Fénéon (1861-1944) journaliste et critique d’art, ami des Nabis (portrait de lui par Félix Vallotton) , anarchiste, tint pendant quelques mois en 1906 une chronique de faits divers dans Le Matin intitulée « Nouvelles en trois lignes » qui devint vite célèbre. Autres nouvelles « Rattrapé par un tramway qui venait de le lancer à dix mètres, l'herboriste Jean Désille, de Vannes, a été coupé en deux. » « Le professeur de natation Renard, dont les élèves tritonnaient en Marne, à Charenton, s'est mis à l'eau lui-même : il s'est noyé. » « Madame Fournier, M. Voisin, M. Septeuil se sont pendus : neurasthénie, cancer, chômage. » « Le feu, 126, boulevard Voltaire. Un caporal fut blessé. Deux lieutenants reçurent sur la tête, l’un une poutre, l’autre un pompier. »
  • Dauphine - Magistère Gestion 2e année - 2006/2007 - Luc Fayard - Maîtriser son information 3/ Le poète a toujours raison = se faire un peu plus confiance « La Terre est bleue comme une orange » a écrit Paul Éluard en 1929. Quarante ans plus tard, le 16 juillet 1969, cette image prise de la Lune depuis le vaisseau Apollo 11 lui donne raison. La région lunaire que l'on voit ici est la Mer de Smuth. Les coordonnées du centre de la zone sont 85° est en longitude et 3° nord en latitude. (source Google). Le poète a toujours raison. Et d’ailleurs dans les 6 fonctions du langage définies par le linguiste Roman Jakobson, il y en a une qui s’appelle la fonction poétique.
  • 3/ IL y a toujours eu un nouveau journalisme, à toute époque 1631 : Journal La Gazette de Théophraste Renaudot (1586-1653). « En une seule chose ne céderais-je à personne, en la recherche de la vérité, de laquelle néanmoins je ne me fais pas garant, étant malaisé qu’entre cinq cents nouvelles écrites à la hâte d’un climat à l’autre, il n’en échappe quelqu’une à nos correspondants… » . Et Renaudot écrira ces phrases célèbres à propos de son journal : « L’Histoire est le récit des choses advenues, La Gazette seulement le bruit qui en court. La première est tenue de dire toujours la vérité, la seconde fait assez si elle empêche de mentir. Et elle ne ment pas, même lorsqu’elle rapporte quelque nouvelle fausse, qui lui a été donnée pour véritable. » RENAUDOT Théophraste, Préface au recueil des gazettes de l’année 1631 , Paris, éditeur ; cité in LABASSE Bertrand, Quand le cadre fait le tableau : référentiels cognitifs et perception de l’actualité  ; in En quête de vértié , Les Cahiers du journalisme, Printemps 2004 – n° 13, Ecole Supérieure de journalisme de Lille – Université Laval, Département d’information et de communication –Québec). Nouveau journalisme = 1973 Tom Wolfe Rappel des postulats de McLuhan: Toute technologie de communication est liée à l’extension d’un sens (œil, oreille) Le contenu d’un nouveau média c’est d’abord l’ancien média « le contenu de l’écriture est la parole ; celui de l’imprimerie, l’écriture ; celui du télégraphe, l’imprimerie ; celui du cinéma, le roman ; celui de la télévision, le film. »; internet est la convergence des anciens médias Médias chauds (sans interprétation, prêt à consommer = radio, presse écrite, cinéma) et médias froids (à interpréter = télévision, téléphone, amis aussi BD) : internet est un média froid qui implique une participation active McLuhan toujours vrai S’inspirer du web 2.0 comme une boîte à idées pour les comportements = Agrégation de contenu plutôt que création ex nihilo Amélioration de l’intelligence collective par des relations circulaires ou horizontales plus que par de l’accumulation de connaissances verticales Expérimentation continuelle Discussion sans filtres, sans intermédiaires entre offre et demande Accès possible à un business global, mondial, avec de petites structures Nouveau type de management et transparence de l’entreprise, de ses infos, de ses membres : fluidité, agilité… Un journalisme plus impliqué (fin du statut d’observateur, tout le monde observe) Aiguilleur entre tous les savoirs Chercheur et donneur de sens et non pas de leçon Metteur en forme, en contexte, en perspective Animateur/modérateur de débats Multimédia parce que McLuhan chaque media donne un sens différent Mais cela ne veut pas dire créer un article une fois et l’utiliser x fois dans des médias différents: c’est une utopie, l’utopie du syndrome de l’agence de presse; c’est méconnaître McLuhan, chaque média a son propre code, son propre langage et il va donner un sens différent à l’info; cela veut donc dire créer une info et en faire un traitement approprié pour chaque média Contre-pouvoir : il l’a toujours été (quatrième pouvoir) mais maintenant c’est contre-pouvoir des puissances de com qui sont aujourd’hui le vrai cinquième pouvoir, l’homme le plus puissant du monde ce n’est pas Ruppert Murdoch c’est le dircom de la CIA.
  • Pas née chez un média traditionnel : les grands médias français n’ont rien inventé depuis des années Ni chez une agence de com : les grandes agences de com sont à la traîne en terme de high-tech Ni dans un service com : les services com des entreprises restent très corporate et inféodés Mais créé par une rencontre entre responsables d’entreprises, journalistes, spécialistes de l’audio-visuel, réalisateurs télé, spécialistes d’internet Résultat: Comme à la télé, des émissions, de l’enquête, du reportage Plus vite et moins cher: Reportage 3 mn : 3 500 € Débat 4 personnes 20 mn : 5 000 € Des résultats exceptionnels pour un site très spécialisé = informatique d’entreprise Près de 100 000 vidéos vues en quelques mois Top Com d’Or 2009 qui récompense le meilleur site d’entreprise
  • Pour finir : Exemple du pouvoir des images Il y a plus d’infos dans ces 2 minutes 30 de film que dans de longues colonnes de journal ou de magazine. On peut l’appliquer à de nombreuses situations qu’on a tous vécues, par exemple les scénarios de l’entreprise en terme de de management ou de gestions de projet: le donneur d’ordre irréaliste, les délais impossibles, les concurrents prêts à tout, les besoins d’innovation, la carotte et le bâton (et quel bâton en l’occurrence que ces terribles crocodiles) etc. Extrait de Astérix et Obélix : mission Cléopâtre Sortie(s) : 30 janvier 2002 (France)non daté (USA) Réalisé par: Alain Chabat Avec: Gérard Depardieu, Christian Clavier, Jamel Debbouze, Monica Bellucci, Alain Chabat, Claude Rich, Gérard Darmon, Edouard Baer, Dieudonné, Isabelle Nanty, ...
  • Transcript

    • 1. « Je suis pour le progrès. Ce que je n’aime pas, c’est le changement » Mark Twain « La différence entre la science et la technologie? La science, c’est ce que les parents apprennent à leurs enfants. La technologie, c’est ce que les enfants apprennent à leurs parents. » Michel Serres « Effectuer le processus, où certaines de ses étapes, à grande vitesse. » Principe 21 de la méthode TRIZ (Théorie de la résolution des problèmes d’innovation) de Guenrich Altshuller 06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 2.
      • Rédacteur en chef adjoint et co-créateur de L’Entreprise
      • Rédacteur en chef du Dauphiné Libéré
      • Directeur de la rédaction de 01 Informatique
      • Créateur de Micro-Hebdo
      • Animateur et chroniqueur radio : BFM, Radio-Classique
      • Enseignant à l’Université Paris Dauphine : « Maîtriser son information »
      • Essayiste: « Dictionnaire impertinent des branchés » (Editions First, Paris, 2002)
      • Romancier : « 100 mots ou presque » (L’Harmattan, Paris, à paraître en 2009)
      • … et intervenant au CFPJ…
      06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 3.
      • Effondrement
      • De l’espace
        • mondialisation
      • Du temps:
        • numérisation
      Luc Fayard - www.infotechart.com
    • 4. Cité par Michel Riguidel 06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 5.
      • Le moteur de recherche
      • Le moteur de recommandation
      • Le nuage de tags
      Luc Fayard - www.infotechart.com
    • 6.
      • Les solutions
      • Gérer le COS : Cognitive Overflow Syndrom, la surcharge informationnelle
      • Gérer l’ IOIU : Information Overflow Information Underuse
      • Appliquer le principe de pertinence = mode de fonctionnement du cerveau qu’on peut appliquer à l’information
      • Nous sommes tous des «  deductives satisfacers  »
      CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com 06/04/2009
    • 7. Luc Fayard - www.infotechart.com Sources: Jean-Paul Pinte http://veillepedagogique.blog.lemonde.fr/ relayé par Culture et TIC http://culturetic.canalblog.com/archives/2005/10/10/876485.html Nouveaux moteurs: Kartoo Kvisu
    • 8.
      • Blog
      • Wiki
      • Mashup
      • Widget
      • RSS
      06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 9. 06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 10.
      • « Sous des noms toujours neufs, une jeune femme se place comme bonne et vite file, lestée. Gain, 25 000 francs. On ne la pince pas. »
      • « MM. Deshumeurs, de La Ferté-sous-Jouarre, et Fontaine, de Nancy, se sont tués, en tombant l’un d’un camion, l’autre d’une fenêtre. »
      • « Mlle Paulin, des Mureaux, 46 ans, a été saccagée, à 9 heures du soir,
      • par un satyre. »
      • « Une machine à battre happa Mme Peccavi. On démonta celle-là pour dégager celle-ci. Morte. »
      • « Mme Olympe Fraisse conte que, dans le bois de Bordezac (Gard), un faune fit subir de merveilleux outrages à ses 66 ans. »
      • « C’est au cochonnet que l’apoplexie a terrassé M. André, 75 ans, de Levallois. Sa boule roulait encore qu’il n’était déjà plus. »
      06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 11. 06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 12.
      • McLuhan
      • web 2.0
      • Un journalisme plus impliqué
        • Aiguilleur
        • Donneur de sens
        • Metteur en forme
        • Animateur
        • Multimédia
        • Contre-pouvoir
      06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 13. 06/04/2009 CFPJ - Innovation et Médias - Luc Fayard – http://infotekart.com
    • 14.  

    ×