Your SlideShare is downloading. ×
  • Like
Evaluer crédibilité information 11-2010
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Now you can save presentations on your phone or tablet

Available for both IPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Evaluer crédibilité information 11-2010

  • 368 views
Published

URFIST

URFIST

Published in Education
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
368
On SlideShare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
1
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Evaluer la crédibilité d’une ressource sur internet Alexandre Serres URFIST de Rennes Novembre 2010 Support sous Licence Creative Commons
  • 2. A. Serres, URFIST Rennes, 20102 PLAN  1/ Introduction : contextes, ruptures et continuités de l’évaluation de l’information  2/ Complexités et notions-clés de l’évaluation  3/ La crédibilité  4/ Démarche d’évaluation de la crédibilité
  • 3. A. Serres, URFIST Rennes, 20103 PLAN  1/ Introduction : contextes, ruptures et continuités de l’évaluation de l’information  Contexte socio-politique  Contexte socio-technique : quels changements avec le web 2.0 ?  Une triple illusion à combattre  Permanence des difficultés de l'évaluation
  • 4. A. Serres, URFIST Rennes, 20104 1/ Introduction : les nouveaux contextes de l’évaluation de l’information  Quatre éléments :  Renversement du modèle de la validation  Complexité de l’offre informationnelle  Crise de la confiance  Nouvelles modalités d’évaluation avec le web social
  • 5. A. Serres, URFIST Rennes, 20105 Introduction : le contexte socio- politique de la crédibilité  « Société de défiance généralisée », selon D. Schnapper (Le Monde, 15 juillet 2010)  Contradiction historique des démocraties entre :  « L’individu démocratique », en critique permanente des institutions  Et nécessité de la confiance en autrui  Contradiction entre :  doute radical  adhésion sans limites  La raison face aux « sirènes du relativisme absolu »   Question cruciale : en qui, en quoi avoir confiance ?
  • 6. A. Serres, URFIST Rennes, 20106 Contexte socio-technique : la question de (la) confiance locale globale verticale horizontale Confiance scientifique Confiance Internet Source : Geoffrey Bilder, Journal of Electronic Publishing, 2006
  • 7. A. Serres, URFIST Rennes, 20107 Contexte socio-technique : quels changements avec le web 2.0 ?  Nouvelles valeurs et représentations :  Tyrannie de l'instant  Règne de la popularité, du buzz…  « L'évaluationnite » :  omniprésence de l'évaluation, du jugement, du vote, de l'avis...  recours à l'affectif : > nouveaux rapports à l'information ?
  • 8. A. Serres, URFIST Rennes, 20108 Dérives et effets pervers de la rhétorique de Facebook ? ?
  • 9. A. Serres, URFIST Rennes, 20109 Contexte socio-technique : quels changements avec le web 2.0 ?  Nouvelles infopollutions :  confusion autorité/popularité :  Cf Technorati  dévalorisation des critères d'expertise, de fiabilité  propagation encore plus rapide des rumeurs, de la désinformation  « effet de meute » :  sagesse ou folie des foules ?  usurpations d'identités, de représentativité  “astroturfing”  dérives de l'économie de la recommandation
  • 10. A. Serres, URFIST Rennes, 201010 Contexte socio-technique : quels changements avec le web 2.0 ?  Nouvelles pratiques informationnelles :  Peu d'attention portée à l'évaluation de l'information chez les jeunes  Nouvelles modalités d'évaluation :  pratiques collaboratives  fortes potentialités du collaboratif  Vérification collective de l'information  lutte plus forte contre infopollutions  cf rectifications sur Wikipedia
  • 11. A. Serres, URFIST Rennes, 201011 Contexte socio-technique : quels changements avec le web 2.0 ?  Dans les outils et les techniques :  Essor des outils de filtrage, de validation, d'identification...  Cf Web of Trust  Intérêt des outils collaboratifs :  réseaux de confiance  Rôle des métadonnées :  Web sémantique  Rôle de la statistique :  Qualité et quantité
  • 12. A. Serres, URFIST Rennes, 201012 Contexte socio-technique : quels changements avec le web 2.0 ?  Dans les modèles de l'autorité et de la crédibilité :  Remise en cause du modèle traditionnel de l’auteur  Dissémination des expertises :  éclatement des monopoles du savoir  Nouvelles expertises :  collectif vs expert
  • 13. A. Serres, URFIST Rennes, 201013 Introduction : triple illusion à combattre  Illusion sociale :  confiance excessive dans la communauté :  limites des réseaux de confiance :  Illusion technique :  confiance excessive dans les outils :  limites des outils : par rapport à la fiabilité d'une information  dérive techniciste des modèles du filtrage collaboratif et de l'économie de la recommandation  modélisation implicite des comportements  Illusion épistémologique :  Vision « objectiviste » de l’information avec le web sémantique  limites de la formalisation des descriptions par métadonnées  Information comme interaction, construction
  • 14. A. Serres, URFIST Rennes, 201014 Introduction : permanence des difficultés de l'évaluation  Ce qui ne change pas :  Complexité de l'évaluation :  confusion des objets de l'évaluation  complexité des notions mobilisées  confusion des notions et critères  Multiplicité des cultures et compétences  Nombreuses connaissances nécessaires  Imbrication des cultures  Difficultés de l'évaluation du document numérique
  • 15. A. Serres, URFIST Rennes, 201015 Introduction : du côté des pratiques informationnelles des jeunes  « la culture informationnelle des jeunes ne s'est pas améliorée avec l'augmentation de l'accès à la technologie »  (enquête britannique: UCL, JISC, Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur.
  • 16. A. Serres, URFIST Rennes, 201016 Introduction : du côté des pratiques informationnelles des étudiants  Confiance trop grande dans les résultats des moteurs de recherche  Méconnaissance ou confusion des critères d’évaluation  Facilité d’utilisation d’un site considérée comme critère de crédibilité  Difficultés à évaluer l’information  Négligences dans le référencement  Pratiques de plagiat
  • 17. A. Serres, URFIST Rennes, 201017 En conclusion de l’introduction…  En résumé, l’évaluation de l’information est une opération à la fois :  Beaucoup plus cruciale qu’avant internet  Beaucoup plus importante dans les études universitaires  Plus difficile  Encore sacrifiée et méconnue
  • 18. A. Serres, URFIST Rennes, 201018 PLAN  2/ Complexité et notions-clés de l’évaluation  2.1 Rappel des difficultés de l’évaluation de l’information  2.2 Quatre notions-clé à distinguer
  • 19. A. Serres, URFIST Rennes, 201019 2.1 Complexités de l’évaluation de l’information  Ne pas occulter la complexité de l’évaluation de l’information :  Pas de « recettes »  Pas d’outils-miracles  Démarche de questionnement :  Nombreuses connaissances nécessaires  Apprendre à discerner, à distinguer…  Evaluation de l’information = apprentissage du jugement critique
  • 20. A. Serres, URFIST Rennes, 201020 2.1 Complexités de l’évaluation de l’information  Double distinction à opérer :  Entre les objets de l’évaluation :  Qu’est-ce qu’on évalue dans une ressource ?  Source, auteur, information, organisation de l’information, facilité d’usage, présentation… ?  Entre les critères de l’évaluation :  Selon quels critères on évalue ?  Critères de crédibilité, d’autorité, de qualité, de pertinence, d’usage ?  Imbrication des objets et des critères >> mais double confusion assez fréquente
  • 21. A. Serres, URFIST Rennes, 201021 2.1 Distinguer les objets de l’évaluation de l’information  La structuration : du document, du site..  Cohérence, qualité, présentation, facilité de repérage…  L’usage :  Lisibilité, graphisme, « utilisabilité » du site…  Confusion fréquente des objets à évaluer :  Par ex. entre fiabilité de source et facilité d’accès  Dans toute ressource, au moins quatre objets à évaluer :  La source, l’auteur…  Fiabilité, crédibilité, réputation, etc.  > connaissance des circuits de l ’édition...  L’information :  Qualité de l’information, validité, fiabilité…  > connaissances disciplinaires
  • 22. A. Serres, URFIST Rennes, 201022 2.1 Distinguer les notions et critères  Des « allants-de-soi » peu explicités :  « Évaluer la qualité et la pertinence de l'information », compétence D4.3 du nouveau B2i Adultes  Mais qu’est-ce que la qualité de l’information ? La crédibilité ? L’autorité d’une ressource ? La pertinence ?  Importance de bien distinguer ces notions, qui ne se recouvrent pas
  • 23. A. Serres, URFIST Rennes, 201023 2.2.1 Quatre notions à distinguer : la crédibilité  Crédibilité = « Caractère, qualité rendant quelque chose susceptible d'être cru ou digne de confiance »  Synonyme de fiabilité  Rôle-clé de la confiance :  Crédibilité toujours à construire  Plus proche d’un sentiment que d’une qualité factuelle  Crédibilité d’une ressource :  Qualité perçue, à partir de différents indices
  • 24. A. Serres, URFIST Rennes, 201024 2.2.1 Quatre notions à distinguer : la crédibilité  Relations avec autres notions :  Crédibilité comme première condition de l’autorité  Crédibilité comme élément de la qualité de l’information  mais pas de recouvrement entre qualité et crédibilité  Crédibilité différente de la véracité, ou de la vérité  Crédibilité différente de la pertinence
  • 25. A. Serres, URFIST Rennes, 201025 2.2.2 Quatre notions à distinguer : “l’autorité cognitive”  « Il n'y a pas de si grand philosophe qui ne croie un million de choses sur la foi d'autrui et qui ne suppose beaucoup plus de vérités qu'il n'en établit (...) Il faut donc toujours, quoi qu'il arrive, que l'autorité se rencontre quelque part dans le monde intellectuel et moral. Sa place est variable mais elle a nécessairement sa place. » (Tocqueville, De la démocratie en Amérique, 1840)
  • 26. A. Serres, URFIST Rennes, 201026 2.2.2 Quatre notions à distinguer : “l’autorité cognitive”  Selon Patrick Wilson : « une relation d’influence de pensée, impliquant au minimum deux personnes, l’une accordant à l’autre sa confiance parce qu’elle maîtrise un domaine spécifique de compétences »  Diversité des autorités cognitives :  Personnes, livres, organisations, outils…  Autorité cognitive fondée sur la crédibilité, la réputation, l’expertise  Mais autorité plus forte que la crédibilité :  Notion d’influence choisie, de reconnaissance d’une expertise  Idée de connaissance de « seconde main »
  • 27. A. Serres, URFIST Rennes, 201027 2.2.2 Quatre notions à distinguer : l’autorité  Notion « d’autorité informationnelle » (E. Broudoux)  Quatre types d’autorités informationnelles :  L’autorité énonciative :  liée à un auteur, à un collectif… ;  L’autorité institutionnelle :  Éditeur, organisation, source…  L’autorité du support :  Liée au type de document ;  L’autorité de contenu :  « plausibilité intrinsèque » du texte
  • 28. A. Serres, URFIST Rennes, 201028 2.2.2 L’autorité informationnelle en contexte pré-numérique (Broudoux) D’après Evelyne Broudoux, 2007
  • 29. A. Serres, URFIST Rennes, 201029 2.2.2 L’autorité informationnelle en contexte numérique (Broudoux) D’après Evelyne Broudoux, 2007
  • 30. A. Serres, URFIST Rennes, 201030 2.2.3 Quatre notions à distinguer : la qualité de l’information  Trois grandes approches de la qualité :  « Qualité documentaire » :  Ensemble de critères, liés aux caractéristiques formelles du contenu d’une ressource  Qualité de l’information, au sens info-news  Voir AQIT  Qualité des données (info-data) :  « La définition de la qualité est propre à l’utilisateur, c’est-à-dire elle est relative à la satisfaction de ses besoins en termes de choix et d’appréciation des facteurs de la qualité » (Harrathi et Calabretto)  > Confondue avec la pertinence
  • 31. A. Serres, URFIST Rennes, 201031 2.2.3 Quatre notions à distinguer : la qualité de l’information  4ème approche de la qualité : approche « usagers », selon Robert S. Taylor (1986)  Jugements de valeur permanents de l’usager, dans l’interaction avec ressources  Cinq valeurs :  l’exactitude (accuracy)  la complétude (comprehensiveness)  l’actualité de l’information (currency)  la fiabilité (reliability)  la validité (validity).  > qualité comme critère à la fois documentaire et d’usage
  • 32. A. Serres, URFIST Rennes, 201032 2.2.3 Quatre notions à distinguer : la qualité de l’information  Qualité documentaire liée à la crédibilité et à l’autorité, mais à distinguer également :  Ressource crédible : de plus ou moins bonne qualité  Ressource de bonne qualité, sans avoir une grande crédibilité de réputation  Qualité documentaire varie selon le domaine :  Information juridique, économique…  Sur la qualité de l’information médicale, voir le Netscoring  Quelques critères « universels », communs à tous les domaines :  Critères de l’information professionnelle
  • 33. A. Serres, URFIST Rennes, 201033 2.2.3 Quatre notions à distinguer : la qualité de l’information  L’information, selon les critères de l’information professionnelle :  identifiée, « sourcée »  fiable  précise, exacte, complète  apportant du nouveau  fraîche, actualisée  accessible  ayant un impact, un effet  bien structurée, bien organisée, bien rédigée  Qualité documentaire de l’information :  Seule vraiment formalisable pour l’évaluation
  • 34. A. Serres, URFIST Rennes, 201034 2.2.4 Quatre notions à distinguer : la pertinence  « Qualité de ce qui est adapté exactement à l'objet dont il s'agit. »  Notion complexe, nombreux modèles, nombreuses théories  Au fondement de la recherche documentaire :  "Degré de corrélation entre une question et la réponse apportée »  approche précise mais réductrice de la pertinence  Nécessité d’élargir la notion  Différentes catégories de pertinences
  • 35. A. Serres, URFIST Rennes, 201035 2.2.4 Quatre notions à distinguer : trois catégories de pertinences  La « pertinence-système » :  pertinence de la représentation du document (indexation...) et recherche d'information elle-même.  les outils de recherche  La « pertinence-utilisateur » : trois types  pertinence de la formulation de la requête :  l’utilisateur + les outils (interfaces)  pertinence de la présentation des résultats :  uniquement les outils  pertinence du document par rapport au besoin :  uniquement l’utilisateur  La « pertinence-thème » :  pertinence du contenu du document par rapport au thème  évaluation de l’information
  • 36. A. Serres, URFIST Rennes, 201036 2.2.4 Quatre notions à distinguer : la pertinence  Dans l’évaluation de l’information, pertinence = adéquation d’une ressource à :  un besoin précis :  De quel type d’information ai-je besoin ?  un contexte précis :  Dans quel but se fait la recherche d’information ?  un usage précis :  Pour quel type d’usage ? Usage facilité ou non ?  un individu précis :  Quel rapport avec le niveau, le degré de connaissance du sujet, les représentations, les opinions… ?  Impossibilité de formaliser l’évaluation de la pertinence
  • 37. A. Serres, URFIST Rennes, 201037 2.2.5 Quatre notions à distinguer : en conclusion  Bien distinguer les combinaisons entre les notions.  Une ressource peut être :  crédible, de qualité, mais non pertinente :  Ex. d’une thèse en Licence  peu crédible, mais de qualité et pertinente :  Ex. d’un site personnel inconnu, mais de qualité et pertinent  crédible, mais de mauvaise qualité et non pertinente:  Ex. d’un article de revue de mauvaise qualité  non crédible et de mauvaise qualité mais pertinente  Ex. d’un site sectaire pour un dossier sur les secte  Pas de superposition entre ces trois ensembles de critères  Pour l’usager, primauté de la pertinence sur tous les autres
  • 38. A. Serres, URFIST Rennes, 201038 PLAN  3/ Différentes facettes de la crédibilité :  Typologies de la crédibilité  Critères et pratiques de la crédibilité chez les usagers  Facteurs de la confiance
  • 39. A. Serres, URFIST Rennes, 201039 3.1 Typologies de la crédibilité  Deux typologies de la crédibilité :  selon les objets de crédibilité :  Source, auteur, support, document  selon les types de crédibilités :  (Fogg et Tseng, 1999)
  • 40. A. Serres, URFIST Rennes, 201040 3.1 Typologies de la crédibilité : selon les objets  Quatre objets de crédibilité à mesurer :  Crédibilité de la source :  Réputation, sérieux, notoriété, fiabilité de l’éditeur, de l’organisation, du média, de l’hébergeur du site…  Première crédibilité à évaluer, car conditionne largement les autres ;  Crédibilité de l’auteur :  Degré de confiance dans un auteur, lié à son expertise, sa notoriété ;  Crédibilité essentielle sur internet, avec l’auto- publication :  Ex. des blogs
  • 41. A. Serres, URFIST Rennes, 201041 3.1 Typologies de la crédibilité : selon les objets  Crédibilité du support :  Image de sérieux, de fiabilité… du support, du média, du type de document… :  Ex. : crédibilité plus forte d’une revue scientifique, par rapport à une revue de vulgarisation, ou un blog…  Type de crédibilité difficile à mesurer sur internet  Crédibilité du document :  Image de sérieux et de fiabilité de la ressource elle- même  Liée à la présentation, à la structuration, au type d’expression, au type d’information…  Mais différent de la fiabilité de l’information
  • 42. A. Serres, URFIST Rennes, 201042 3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité  Crédibilité présumée :  > représentations  Confiance accordée a priori à quelqu’un, à une source, en fonction des représentations, des croyances, des hypothèses des usagers…  Confiance plus forte pour un ami que pour un vendeur…  Crédibilité réputée :  > réputation  Confiance accordée selon la réputation, la notoriété, l’affiliation d’une source à une autorité…  Confiance plus forte pour un site universitaire que pour un site commercial Typologie de Fogg et Tseng, 1999
  • 43. A. Serres, URFIST Rennes, 201043 3.1 Typologies de la crédibilité : selon les facteurs de la crédibilité  Crédibilité de surface, ou apparente :  > apparence, présentation :  Présentation d’une personne, d’une ressource, d’un site web  Ex. : registre de langue, couverture d’un livre, graphisme d’un site web…  Comprend la crédibilité du support et du document  Rôle très important dans les pratiques des usagers  Crédibilité d’expérience :  > usage  Liée à l’expérience personnelle d’une personne, d’une ressource, d’un site…  Comprend l’usage, ou « l’utilisabilité » Typologie de Fogg et Tseng, 1999
  • 44. A. Serres, URFIST Rennes, 201044 3.2 Critères et pratiques de la crédibilité  Plusieurs études sur les critères spontanés d’évaluation  Nombreuses variables, différents clivages selon les publics  Clivage grand public / public expert  Etude de Stanford (Fogg, 2002)  2500 personnes concernées, tous horizons  Evaluation de la crédibilité d’une centaine de sites, appartenant à 10 catégories thématiques  Mise en évidence de 18 critères d’évaluation  Prédominance très nette des critères de présentation
  • 45. A. Serres, URFIST Rennes, 201045 3.2 Critères et pratiques de la crédibilité : étude de Stanford, 2002
  • 46. A. Serres, URFIST Rennes, 201046 3.2 Critères et pratiques de la crédibilité  Variable du niveau d’étude :  Etude de Ziming Liu et Xiaobin Huang (2005)  Comparaison entre étudiants de premier cycle et étudiants avancés  Etudiants de premier cycle :  critères concernant l'auteur (réputation, affiliation…) (>81 %) ;  apparence (layout) (à 21,1 %) ;  réputation du site web.  Etudiants de second cycle :  Plus d’importance aux critères de contenu (véracité, qualité de l’information, etc.)
  • 47. A. Serres, URFIST Rennes, 201047 3.2 Critères et pratiques de la crédibilité : étude de Liu et Huang
  • 48. A. Serres, URFIST Rennes, 201048 3.2 Critères et pratiques de la crédibilité  Variable interculturelle :  Même étude de Ziming Liu et Xiaobin Huang  Comparaison d’étudiants chinois et américains  Convergences dans les crédibilités présumée et réputée :  Présence de références  Signalement sur un site respecté  Publication en parallèle dans une revue imprimée
  • 49. A. Serres, URFIST Rennes, 201049 3.2 Critères et pratiques de la crédibilité  Différences, dans l’importance accordée aux critères :  Chez étudiants chinois :  Fréquentation d’un site  Présence de tableaux et graphiques  Longueur du document  Chez étudiants américains :  Contenu informatif  Affiliation de l’auteur
  • 50. A. Serres, URFIST Rennes, 201050 3.2 Critères et pratiques de la crédibilité : la variable interculturelle Aspects jugés les moins crédibles par les étudiants américains et chinois. Étude de Liu et Huang
  • 51. A. Serres, URFIST Rennes, 201051 3.2 Critères et pratiques de la crédibilité : la variable interculturelle  Rapports inverses aux crédibilités :  Pour les étudiants chinois :  Crédibilités apparentes, présumée et de réputation : plus importantes  Crédibilité de contenu : sert à éliminer une ressource  Pour les étudiants américains :  Crédibilité de contenu : la plus importante  Crédibilités de surface, de réputation et présumée : conditions minimales, servent à éliminer
  • 52. A. Serres, URFIST Rennes, 201052 3.2 Critères et pratiques de la crédibilité  Nombreuses variables, complexité du jugement de crédibilité  Intérêt et limites de l'évaluation de la crédibilité  importance à l'université  rapport crédibilité/pertinence
  • 53. A. Serres, URFIST Rennes, 201053 3.3 Les facteurs de la confiance  Méta-étude britannique sur la construction de la confiance (Pickard, 2010):  Panorama des modalités de la confiance des usagers  Dépouillement de plus de 220 références d’études
  • 54. A. Serres, URFIST Rennes, 201054 3.3 Les facteurs de la confiance  Identification précise des multiples « facteurs de la confiance »  Trois grandes catégories :  les facteurs externes :  Liés à la source, au dispositif sociotechnique, à la présentation… des sites web  « signes extérieurs de crédibilité »  Les facteurs internes :  Liés au contenu des ressources  Facteurs liés à l’état cognitif des usagers
  • 55. A. Serres, URFIST Rennes, 201055 3.3 Les facteurs de la confiance Users’ trust in information resources in the Web environment: a status report Facteurs externes, intervenant dans la confiance des usagers
  • 56. A. Serres, URFIST Rennes, 201056 3.3 Les facteurs de la confiance Users’ trust in information resources in the Web environment: a status report Facteurs internes, intervenant dans la confiance des usagers
  • 57. A. Serres, URFIST Rennes, 201057 3.3 Les facteurs de la confiance Users’ trust in information resources in the Web environment: a status report Facteurs cognitifs, intervenant dans la confiance des usagers
  • 58. A. Serres, URFIST Rennes, 201058 PLAN  4/ Démarche d’évaluation de la crédibilité
  • 59. A. Serres, URFIST Rennes, 201059 4.1 Démarche pour l’évaluation  Evaluer = apprendre à questionner  Développer son esprit critique  Apprendre à discerner entre les critères  Distinguer entre les composantes d’une ressource :  Source  Contenu  Présentation  Usage
  • 60. A. Serres, URFIST Rennes, 201060 4.1 Méthodologie : 6 principes pour une démarche d’évaluation de l’information  Savoir (se) questionner :  identifier l'objet de la recherche  Bien définir ses besoins d’information  bien cerner le sujet  traduire concepts en mots-clés  Bien utiliser les outils de recherche :  Mode avancé  Utiliser les opérateurs de filtrage  Bien identifier les ressources trouvées :  Bien décoder les URL  Identifier les sources, les auteurs, les documents
  • 61. A. Serres, URFIST Rennes, 201061 4.1 Méthodologie : 6 principes pour une démarche d’évaluation de l’information  Evaluer la pertinence de la ressource :  Par rapport aux besoins, au contexte, au niveau  Evaluer la crédibilité et l’autorité :  De la source  Du support  De l’auteur  Du contenu  Evaluer la qualité de l’information :  Fiabilité, exactitude…  recouper, critiquer, comparer...
  • 62. A. Serres, URFIST Rennes, 201062 4.2 Méthodologie : bien identifier les résultats  Identifier :  Le site web :  Savoir décoder les URL  Identifier le nom, le statut de l’organisation, de l’hébergeur...  L’auteur de la ressource :  Nom, statut, coordonnées...  La nature du document :  Vulgarisation, opinion, recherche…  Type de document : rapport, article, ouvrage…
  • 63. A. Serres, URFIST Rennes, 201063 4.2 Savoir décoder les résultats de Google Type de documents Date du document Nationalité du site Origine, type de site Type de ressource Taille du document Nombre de citations Nom de l’auteur
  • 64. A. Serres, URFIST Rennes, 201064 4.3 Méthodologie : juger de la pertinence des ressources  La ressource trouvée correspond-elle :  Au sujet ?  Est-elle pertinente sur le sujet ? Est-elle crédible ?  A mes besoins ?  Par rapport au type d’informations demandées  A la tâche demandée ?  La ressource peut-elle être utile pour un dossier, une note de lecture, un mémoire… ?  A mon niveau ?  A mes connaissances ?  Document trop spécialisé ?  A une certaine facilité d’usage ?  Ressource plus ou moins compliquée à utiliser ?
  • 65. A. Serres, URFIST Rennes, 201065 4.3 Méthodologie : juger de la pertinence des ressources  Pour des recherches universitaires, primauté des critères de crédibilité, d’autorité et de qualité, qui font partie de la pertinence  Voir l’importance de la crédibilité de la source  Sauf pour les documents « contre-exemples »  Pour des recherches « pratiques », primauté des critères d’usage
  • 66. A. Serres, URFIST Rennes, 201066 4.4 Méthodologie : évaluer la crédibilité  Crédibilité de la source :  Quel est le sérieux de l’éditeur, de l’organisation, du média, de l’hébergeur du site… ?  Quelle réputation, quelle notoriété ?  Faire des recherches sur la source  Crédibilité de l’auteur :  Quelle expertise, quelles autres publications ?  Quelle notoriété, quelles recommandations, quel réseau ?  Quelles intentions ? Pourquoi publie-t-il ?  Partager ses connaissances, se promouvoir, vendre, défendre un point de vue, divertir... ?  Utiliser les moteurs de recherche de personnes, Google...
  • 67. A. Serres, URFIST Rennes, 201067 4.4 Méthodologie : évaluer la crédibilité  Crédibilité du document :  La nature du document est-elle précisée, visible ? (article, communication de congrès…)  L’auteur est-il clairement indiqué ?  Le document comporte-t-il des références, indique-t-il ses sources ?  Le document est-il bien structuré, cohérent, clair ?  Est-il bien rédigé ? (quelle qualité d’expression ?)  Est-il clairement daté ? (date de création, de mise à jour…)
  • 68. A. Serres, URFIST Rennes, 201068 4.4 Méthodologie : évaluer l’autorité de l’auteur  Observer la notoriété, l’influence :  Pour les chercheurs :  le nombre de publications, les titres…  Le nombre et l’origine des citations  Ex. sur Google Scholar, ou avec Publish Or Perish  Pour les auteurs de blogs, de ressources :  le nombre de liens, de citations  Ex. sur Wikio  Mais rester critique face aux indicateurs de popularité !
  • 69. A. Serres, URFIST Rennes, 201069 4.4 Méthodologie : évaluer la crédibilité  TP sur l’évaluation de la crédibilité
  • 70. A. Serres, URFIST Rennes, 201070 Références bibliographiques  BROUDOUX, Evelyne. Construction de l'autorité informationnelle sur le web. In R. Skare, N. W. Lund et A. Vårheim. A Document (Re)turn: Contributions from a Research Field in Transition. Frankfurt : Peter Lang, 2007. Disp. sur : http://archivesic.ccsd.cnrs.fr/docs/00/12/07/10/PDF/AutorInfo.pdf.  FOGG, B. J., & TSENG, H. ”The elements of computer credibility”. Proceedings of the SIGCHI conference on Human Factors in Computing Systems, 1999, p. 80–87  FOGG, B. J., SOOHOO, Cathy, DANIELSON, David R. How do people evaluate a web site's credibility ? Results from a large study [En ligne]. Stanford, California : Persuasive Technology Lab Stanford University, 2002. 105 p. Disp. sur : < http://www.consumerwebwatch.org/pdfs/ stanfordPTL.pdf >  HARRATHI, Rami, CALABRETTO, Sylvie C. « Un modèle de qualité de l'information ». In : EGC'2006. Lille : [s.n.], 2006. p. pp. 299-304. Disp. sur :http://apmd.prism.uvsq.fr /public/Publications/Articles/Un%20modele%20de%20qualite%20de%20l%20in  >
  • 71. A. Serres, URFIST Rennes, 201071 Références bibliographiques  LIU, Ziming, HUANG, Xiaobin. « Evaluating the credibility of scholarly information on the web: A cross cultural study ». The International Information & Library Review [En ligne]. Juin 2005, Vol. 37, n°2, p. 102. Disp. sur : < http://dx.doi.org/10.1016/j.iilr.2005.05.004  PICKARD, Alison Jane, GANNON-LEARY, Pat, COVENTRY, Lynne. Users’ trust in information resources in the Web environment: a status report [En ligne]. Northumbria University : JISC (Joint Information Systems Committee), 2010. Disp. sur : < http://ie-repository.jisc.ac.uk/470/2/ JISC_User_Trust_final_report.pdf >  SCHNAPPER, Dominique. « En qui peut-on avoir confiance ? ». Le Monde [En ligne]. 15 Juillet 2010.   UCL (University College London), JISC (Joint Information Systems Committee), Estève-Bouvet, Isabelle (trad.). Comportement informationnel du chercheur du futur. Information behaviour of the researcher of the future [En ligne]. Londres, Paris : UCL (University College London), JISC (Joint Information Systems Committee), 2008. Disp. sur : http://www.jisc.ac.uk /media/documents/programmes/reppres/gg_final_keynote_11012008.pdf ; Trad. en français disp. sur : http://www.savoirscdi.cndp.fr/fileadmin/ fichiers_auteurs/PDF_manuels/ Le_comportement__informationnel_du_chercheur_du_futur.pdf >