Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Atouts du croisement de données

1,751 views

Published on

Slides de la conférence d'Olivier Duffez lors du Seo Camp'us 2018

Published in: Internet
  • Hey guys! Who wants to chat with me? More photos with me here 👉 http://www.bit.ly/katekoxx
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here

Atouts du croisement de données

  1. 1. 1#seocamp Audit SEO : Atouts du croisement de données jeudi 22 mars 2018
  2. 2. 2#seocamp Olivier DUFFEZ Créateur du site webrankinfo.com Consultant SEO webrankexpert.com Formateur SEO ranking-metrics.fr Cofondateur de la plateforme SEO myrankingmetrics.com
  3. 3. 3#seocamp Introduction
  4. 4. 4#seocamp Noyé sous les données ■ SEO, nous avons accès à de + en + de données ■ C’est très utile ! Mais un piège également… ■ Le risque : ne plus savoir quoi (en) faire
  5. 5. 5#seocamp Le but de cette présentation... Comment exploiter au maximum toutes ces données ? ■ Issues d’un audit SEO (crawler + analyseur) ■ + de Google Analytics ■ + de Google Search Console
  6. 6. 6#seocamp A quoi sert un audit SEO ? Il sert à trouver : ■ des problèmes qui pénalisent le référencement du site ■ des idées d’optimisation du référencement
  7. 7. 7#seocamp Quel est le but d’un audit SEO ? Lister des recommandations : ■ applicables ■ triées par rentabilité décroissante ■ permettant d’améliorer le référencement du site
  8. 8. 8#seocamp D’un audit “standard” à un audit couplé à des données externes 1
  9. 9. 9#seocamp Audit standard : crawl + analyse 1. Le crawler récupère toutes les pages du site 2. L’analyseur traite les données et formate des résultats Au final, on essaie de repérer les pages avec problèmes ■ On essaie d’évaluer la qualité des pages ■ Si c’est bien fait, on se concentre sur les pages à problèmes
  10. 10. 10#seocamp Audit standard : crawl + analyse Crawler Analyseur L’audit standard permet d’évaluer la qualité “intrinsèque” de chaque page indexable évaluation de qualité pour chaque page
  11. 11. 11#seocamp Comment évaluer la qualité intrinsèque ? Il faut tenir compte de toutes les caractéristiques techniques et de contenu de chaque page, notamment : ■ contenu inédit dans la zone principale ■ rapidité, profondeur, compatibilité mobile ■ optimisation des balises HTML classiques du SEO ■ etc.
  12. 12. 12#seocamp Audit avancé : crawl + analyse + couplage Données externes performance réelle de chaque page Crawler Analyseur évaluation de qualité pour chaque page Grâce à toutes ces données, l’audit peut aboutir à des recommandations à haute valeur ajoutée données enrichies
  13. 13. 13#seocamp Comment valider l’estimation de qualité ? Etude sur 1,2 milliard de visites, 42 millions de pages 2
  14. 14. 14#seocamp Mon étude RM Tech Sur ma plateforme My Ranking Metrics, je dispose de big data pour des dizaines de milliers d’audits SEO. La qualité intrinsèque de chaque page indexable est calculée par un algorithme spécifique : QualityRisk.
  15. 15. 15#seocamp Mon étude RM Tech Quelques chiffres (étude mars 2018) : ■ 4 823 sites audités ■ 42 543 337 pages, dont ○ 27 millions indexables ○ 8 millions actives ■ 1 171 411 276 sessions générées en “organic” (réft . naturel)
  16. 16. 16#seocamp Mon étude RM Tech Précisions : ■ chaque page d’accueil est exclue pour ne pas fausser l’analyse (le trafic “marque” n’est pas réellement “organic”) ■ 100% des données ont pu être récupérées (par l’API), sans jamais avoir d’échantillonnage
  17. 17. 17#seocamp 1 : analyse de la profondeur Précisions : ■ la profondeur est le nombre de clics nécessaires (sur des liens suivis par Google) pour atteindre la page ■ page d’accueil (ignorée ici) : 0 ■ pages atteignables depuis l’accueil : 1 ■ etc.
  18. 18. 18#seocamp Résultats : profondeur Les pages de profondeur 1 à 3 génèrent 8 fois + de visites SEO que celles de profondeur 4 ou plus !
  19. 19. 19#seocamp 2 : analyse du manque de contenu Précisions : ■ Nous nous concentrons sur le contenu de la zone principale de la page (c’est idiot d’inclure menu, sidebar, footer…) ■ l’exigence de taille dépend des cas de figure (article éditorial, listing, site ecommerce, etc.) ■ un indice est calculé de 0 (aucun manque de contenu) à 100 (manque total de contenu)
  20. 20. 20#seocamp Résultats : manque de contenu Les pages avec assez de contenu texte génèrent 4,5 fois + de visites SEO que celles qui en manquent !
  21. 21. 21#seocamp 3 : analyse de la qualité intrinsèque Précisions : ■ L’indice QualityRisk est calculé à partir de nombreux critères on-page et on-site ■ il représente le risque qu’un internaute (ou Google) soit déçu par la qualité intrinsèque de la page ■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)
  22. 22. 22#seocamp Résultats : qualité intrinsèque Les pages sans aucun problème de qualité génèrent 12 fois + de visites SEO que celles qui en ont (QualityRisk > 20) !
  23. 23. 23#seocamp Remarque QualityRisk et UX ■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais justement en le couplant avec, des analyses UX / SEO sont possibles ■ cela permet tout de même des analyses avancées même quand on ne dispose pas des données Google Analytics
  24. 24. 24#seocamp Quelles recommandations SEO peut-on tirer du couplage des données ? 3
  25. 25. 25#seocamp 1- Notion de Page active ■ Avec les données Google Analytics, sur la période : ○ page active : elle a généré des visites (organic) ■ Avec les données Google Search Console, sur la période : ○ page active : elle a reçu des clics ○ page indexée : pas de clics, mais des impressions
  26. 26. 26#seocamp 1- Notion de Page active ■ Analyse simple mais essentielle... ■ En croisant avec les données du crawl, on comprend pourquoi certaines pages (ou types de pages) sont inactives ■ Les rendre actives augmente (évidemment) le trafic !
  27. 27. 27#seocamp 2- Pages à supprimer ou désindexer ■ Les pages de trop mauvaise qualité plombent le reste du site (Panda, Phantom et autres algos qualité) ■ Repérez les pires pour les supprimer ou désindexer ■ Le couplage du crawl et des données de performances fait gagner un temps gigantesque ■ L’analyse humaine doit toujours avoir le dernier mot
  28. 28. 28#seocamp 2- Pages à supprimer ou désindexer Calculez un indice par page basé au moins sur : ■ les performances actuelles (on cherche les pages sans trafic) ■ la qualité intrinsèque (on cherche les pages très décevantes) ■ les backlinks (on cherche les pages sans BL intéressants) ■ le CA généré (on cherche les pages à CA nul) Permet de faire ressortir parmi l’immensité des pages du site celles à supprimer sans crainte (pas d’impact trafic / CA)
  29. 29. 29#seocamp 3- Pages rentables à travailler en 1er Pendant longtemps, j’ai fait mes audits avec un simple crawler Difficile de savoir par quoi commencer pour satisfaire le client ! Il faut trier parmi plein de cas de figure : ■ les pages qui performent déjà bien et pour lesquelles on trouve encore des choses à améliorer ■ les pages à performance moyenne ou faible, mais avec beaucoup de choses à améliorer ■ les pages à performance très faible, où tout est à améliorer
  30. 30. 30#seocamp 3- Pages rentables à travailler en 1er Calculez un indice de rentabilité par page basé au moins sur : ■ les performances actuelles ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque) ■ la difficulté d’amélioration Permet de faire ressortir parmi l’immensité des pages du site les plus rentables à travailler (gain en trafic / effort à fournir) + de détails dans cette vidéo de 35’
  31. 31. 31#seocamp 4- Pages à améliorer en termes UX ■ Les internautes arrivés depuis Google (organic) déçus par votre site reviennent dans les SERP. ■ C’est un très mauvais signal envoyé à Google ! ■ Si c’est fréquent pour votre site, sa visibilité va chuter PS : ne confondez pas tout ■ uniquement les internautes venant des SERP (organic) ■ c’est différent du taux de rebond pris isolément
  32. 32. 32#seocamp 4- Pages à améliorer en termes UX Calculez un indice de déception (internaute) basé au moins sur : ■ des données Analytics liées à l’internaute (taux de rebond, nb de pages vues / session, en comparant les pages entre elles et non par rapport à un idéal universel qui n’existe pas) ■ les performances actuelles (sessions générées en “organic”) ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
  33. 33. 33#seocamp 4- Pages à améliorer en termes UX Permet de faire ressortir parmi l’immensité des pages du site celles qui génèrent le plus de déception détectable par Google
  34. 34. 34#seocamp 5- Pages à pousser en page 1 de Google Ce n’est pas un scoop, pas grand monde s’aventure en page 2 des SERP… C’est encore plus flagrant sur mobile, donc l’impact de cette habitude va augmenter. Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)
  35. 35. 35#seocamp 5- Pages à pousser en page 1 de Google
  36. 36. 36#seocamp 5- Pages à pousser en page 1 de Google
  37. 37. 37#seocamp 5- Pages à pousser en page 1 de Google Calculez un indice de potentiel par page basé au moins sur : ■ le volume de recherches des requêtes pour cette page ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque) ■ la position moyenne actuelle Permet de faire ressortir les pages avec le meilleur ratio “nombre de visites à gagner” / “effort à fournir” Parfois on trouve des pépites (page #1 sans trop d’efforts)
  38. 38. 38#seocamp Conseils (retours d’expérience) 1. Basez-vous sur les pages indexables ! ○ débrouillez-vous pour en obtenir la liste ○ ne prenez pas simplement un export du crawl (tenez compte des noindex, canonical, etc.) ○ sinon vous perdrez du temps
  39. 39. 39#seocamp Conseils (retours d’expérience) 2. Choisissez bien la période pour récupérer les données ! ○ stratégique en cas de saisonnalités ○ permet d’anticiper les saisons futures Pour certaines analyses, 1 an de données c’est mieux. Pour d’autres, il faut personnaliser selon l’analyse.
  40. 40. 40#seocamp Conseils (retours d’expérience) 3. Ne vous basez pas sur des données non fiables ! ○ exemple typique : prendre les valeurs dans Google Analytics sans vérifier s'il y a eu de l'échantillonnage ○ l'échantillonnage est fréquent, surtout avec 1 an de données
  41. 41. 41#seocamp Conseils (retours d’expérience) 4. Soyez exhaustifs ! ○ par exemple dans Search Console, combinez les données de tous les sous-domaines ○ attention aussi à HTTP / HTTPS
  42. 42. 42#seocamp Le mot de la fin Ce n'est qu'un aperçu des possibilités du couplage d'un audit SEO avec des données externes… Elles sont impossibles à faire "à la main" et apportent une très forte valeur ajoutée ! Pour ma part j'en fait d'autres que celles-ci, je les rendrai publiques un peu plus tard ;-)
  43. 43. 43#seocamp Question Mug Selon mon étude, les pages sans problème de qualité génèrent + de trafic SEO que les pages pourries (QualityRisk > 20) : ■ 2x plus ? ■ 6x plus ? ■ 12x plus ?
  44. 44. 44#seocamp MERCI AUX SPONSORS

×