Atouts du croisement de données

1#seocamp
Audit SEO :
Atouts du croisement de données
jeudi 22 mars 2018
2#seocamp
Olivier DUFFEZ
Créateur du site
webrankinfo.com
Consultant SEO
webrankexpert.com
Formateur SEO
ranking-metrics.fr
Cofondateur de la
plateforme SEO
myrankingmetrics.com
3#seocamp
Introduction
4#seocamp
Noyé sous les données
■ SEO, nous avons accès à de + en + de données
■ C’est très utile ! Mais un piège également…
■ Le risque : ne plus savoir quoi (en) faire
5#seocamp
Le but de cette présentation...
Comment exploiter au maximum toutes ces données ?
■ Issues d’un audit SEO (crawler + analyseur)
■ + de Google Analytics
■ + de Google Search Console
6#seocamp
A quoi sert un audit SEO ?
Il sert à trouver :
■ des problèmes qui pénalisent le référencement du site
■ des idées d’optimisation du référencement
7#seocamp
Quel est le but d’un audit SEO ?
Lister des recommandations :
■ applicables
■ triées par rentabilité décroissante
■ permettant d’améliorer le référencement du site
8#seocamp
D’un audit “standard”
à un audit couplé à
des données externes
1
9#seocamp
Audit standard : crawl + analyse
1. Le crawler récupère toutes les pages du site
2. L’analyseur traite les données et formate des résultats
Au final, on essaie de repérer les pages avec problèmes
■ On essaie d’évaluer la qualité des pages
■ Si c’est bien fait, on se concentre sur les pages à problèmes
10#seocamp
Audit standard : crawl + analyse
Crawler Analyseur
L’audit standard permet d’évaluer
la qualité “intrinsèque” de chaque page indexable
évaluation de qualité
pour chaque page
11#seocamp
Comment évaluer la qualité intrinsèque ?
Il faut tenir compte de toutes les caractéristiques techniques et
de contenu de chaque page, notamment :
■ contenu inédit dans la zone principale
■ rapidité, profondeur, compatibilité mobile
■ optimisation des balises HTML classiques du SEO
■ etc.
12#seocamp
Audit avancé : crawl + analyse + couplage
Données
externes performance réelle
de chaque page
Crawler Analyseur
évaluation de qualité
pour chaque page
Grâce à toutes ces données, l’audit peut aboutir à
des recommandations à haute valeur ajoutée
données
enrichies
13#seocamp
Comment valider
l’estimation de qualité ?
Etude sur 1,2 milliard de
visites, 42 millions de pages
2
14#seocamp
Mon étude RM Tech
Sur ma plateforme My Ranking Metrics, je dispose de big data
pour des dizaines de milliers d’audits SEO.
La qualité intrinsèque de chaque page indexable est calculée
par un algorithme spécifique : QualityRisk.
15#seocamp
Mon étude RM Tech
Quelques chiffres (étude mars 2018) :
■ 4 823 sites audités
■ 42 543 337 pages, dont
○ 27 millions indexables
○ 8 millions actives
■ 1 171 411 276 sessions générées en “organic” (réft
. naturel)
16#seocamp
Mon étude RM Tech
Précisions :
■ chaque page d’accueil est exclue pour ne pas fausser
l’analyse (le trafic “marque” n’est pas réellement “organic”)
■ 100% des données ont pu être récupérées (par l’API),
sans jamais avoir d’échantillonnage
17#seocamp
1 : analyse de la profondeur
Précisions :
■ la profondeur est le nombre de clics nécessaires
(sur des liens suivis par Google) pour atteindre la page
■ page d’accueil (ignorée ici) : 0
■ pages atteignables depuis l’accueil : 1
■ etc.
18#seocamp
Résultats : profondeur
Les pages de profondeur 1 à 3
génèrent 8 fois + de visites SEO
que celles de profondeur 4 ou plus !
19#seocamp
2 : analyse du manque de contenu
Précisions :
■ Nous nous concentrons sur le contenu de la zone principale
de la page (c’est idiot d’inclure menu, sidebar, footer…)
■ l’exigence de taille dépend des cas de figure (article éditorial,
listing, site ecommerce, etc.)
■ un indice est calculé de 0 (aucun manque de contenu) à 100
(manque total de contenu)
20#seocamp
Résultats : manque de contenu
Les pages avec assez de contenu texte
génèrent 4,5 fois + de visites SEO
que celles qui en manquent !
21#seocamp
3 : analyse de la qualité intrinsèque
Précisions :
■ L’indice QualityRisk est calculé à partir de nombreux critères
on-page et on-site
■ il représente le risque qu’un internaute (ou Google) soit déçu
par la qualité intrinsèque de la page
■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)
22#seocamp
Résultats : qualité intrinsèque
Les pages sans aucun problème de qualité
génèrent 12 fois + de visites SEO
que celles qui en ont (QualityRisk > 20) !
23#seocamp
Remarque QualityRisk et UX
■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais
justement en le couplant avec, des analyses UX / SEO sont
possibles
■ cela permet tout de même des analyses avancées même
quand on ne dispose pas des données Google Analytics
24#seocamp
Quelles recommandations
SEO peut-on tirer du
couplage des données ?
3
25#seocamp
1- Notion de Page active
■ Avec les données Google Analytics, sur la période :
○ page active : elle a généré des visites (organic)
■ Avec les données Google Search Console, sur la période :
○ page active : elle a reçu des clics
○ page indexée : pas de clics, mais des impressions
26#seocamp
1- Notion de Page active
■ Analyse simple mais essentielle...
■ En croisant avec les données du crawl, on comprend
pourquoi certaines pages (ou types de pages) sont inactives
■ Les rendre actives augmente (évidemment) le trafic !
27#seocamp
2- Pages à supprimer ou désindexer
■ Les pages de trop mauvaise qualité plombent le reste du site
(Panda, Phantom et autres algos qualité)
■ Repérez les pires pour les supprimer ou désindexer
■ Le couplage du crawl et des données de performances fait
gagner un temps gigantesque
■ L’analyse humaine doit toujours avoir le dernier mot
28#seocamp
2- Pages à supprimer ou désindexer
Calculez un indice par page basé au moins sur :
■ les performances actuelles (on cherche les pages sans trafic)
■ la qualité intrinsèque (on cherche les pages très décevantes)
■ les backlinks (on cherche les pages sans BL intéressants)
■ le CA généré (on cherche les pages à CA nul)
Permet de faire ressortir parmi l’immensité des pages du site
celles à supprimer sans crainte (pas d’impact trafic / CA)
29#seocamp
3- Pages rentables à travailler en 1er
Pendant longtemps, j’ai fait mes audits avec un simple crawler
Difficile de savoir par quoi commencer pour satisfaire le client !
Il faut trier parmi plein de cas de figure :
■ les pages qui performent déjà bien et pour lesquelles on
trouve encore des choses à améliorer
■ les pages à performance moyenne ou faible, mais avec
beaucoup de choses à améliorer
■ les pages à performance très faible, où tout est à améliorer
30#seocamp
3- Pages rentables à travailler en 1er
Calculez un indice de rentabilité par page basé au moins sur :
■ les performances actuelles
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la difficulté d’amélioration
Permet de faire ressortir parmi l’immensité des pages du site les
plus rentables à travailler (gain en trafic / effort à fournir)
+ de détails dans cette vidéo de 35’
31#seocamp
4- Pages à améliorer en termes UX
■ Les internautes arrivés depuis Google (organic) déçus par
votre site reviennent dans les SERP.
■ C’est un très mauvais signal envoyé à Google !
■ Si c’est fréquent pour votre site, sa visibilité va chuter
PS : ne confondez pas tout
■ uniquement les internautes venant des SERP (organic)
■ c’est différent du taux de rebond pris isolément
32#seocamp
4- Pages à améliorer en termes UX
Calculez un indice de déception (internaute) basé au moins sur :
■ des données Analytics liées à l’internaute (taux de rebond, nb
de pages vues / session, en comparant les pages entre elles et
non par rapport à un idéal universel qui n’existe pas)
■ les performances actuelles (sessions générées en “organic”)
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
33#seocamp
4- Pages à améliorer en termes UX
Permet de faire ressortir parmi l’immensité des pages du site
celles qui génèrent le plus de déception détectable par Google
34#seocamp
5- Pages à pousser en page 1 de Google
Ce n’est pas un scoop, pas grand monde s’aventure en page 2
des SERP…
C’est encore plus flagrant sur mobile, donc l’impact de cette
habitude va augmenter.
Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)
35#seocamp
5- Pages à pousser en page 1 de Google
36#seocamp
5- Pages à pousser en page 1 de Google
37#seocamp
5- Pages à pousser en page 1 de Google
Calculez un indice de potentiel par page basé au moins sur :
■ le volume de recherches des requêtes pour cette page
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la position moyenne actuelle
Permet de faire ressortir les pages avec le meilleur ratio
“nombre de visites à gagner” / “effort à fournir”
Parfois on trouve des pépites (page #1 sans trop d’efforts)
38#seocamp
Conseils (retours d’expérience)
1. Basez-vous sur les pages indexables !
○ débrouillez-vous pour en obtenir la liste
○ ne prenez pas simplement un export du crawl
(tenez compte des noindex, canonical, etc.)
○ sinon vous perdrez du temps
39#seocamp
Conseils (retours d’expérience)
2. Choisissez bien la période pour récupérer les données !
○ stratégique en cas de saisonnalités
○ permet d’anticiper les saisons futures
Pour certaines analyses, 1 an de données c’est mieux.
Pour d’autres, il faut personnaliser selon l’analyse.
40#seocamp
Conseils (retours d’expérience)
3. Ne vous basez pas sur des données non fiables !
○ exemple typique : prendre les valeurs dans Google Analytics
sans vérifier s'il y a eu de l'échantillonnage
○ l'échantillonnage est fréquent, surtout avec 1 an de données
41#seocamp
Conseils (retours d’expérience)
4. Soyez exhaustifs !
○ par exemple dans Search Console, combinez les données
de tous les sous-domaines
○ attention aussi à HTTP / HTTPS
42#seocamp
Le mot de la fin
Ce n'est qu'un aperçu des possibilités du couplage d'un audit
SEO avec des données externes…
Elles sont impossibles à faire "à la main" et apportent une très
forte valeur ajoutée !
Pour ma part j'en fait d'autres que celles-ci, je les rendrai
publiques un peu plus tard ;-)
43#seocamp
Question Mug
Selon mon étude, les pages sans
problème de qualité génèrent + de
trafic SEO que les pages pourries
(QualityRisk > 20) :
■ 2x plus ?
■ 6x plus ?
■ 12x plus ?
44#seocamp
MERCI AUX SPONSORS
1 of 44

More Related Content

What's hot(20)

Seocampus 2018-laura-blanchardSeocampus 2018-laura-blanchard
Seocampus 2018-laura-blanchard
Laura Blanchard - Agence KHOSI2.1K views
Seo Camp'us 2018 : L'Outreach MarketingSeo Camp'us 2018 : L'Outreach Marketing
Seo Camp'us 2018 : L'Outreach Marketing
Nicolas Picand4.8K views
SEO & SEA : Réconcilions les frères ennemis !SEO & SEA : Réconcilions les frères ennemis !
SEO & SEA : Réconcilions les frères ennemis !
SEO Camp Association4.9K views
Ce que Facebook Ads vous cacheCe que Facebook Ads vous cache
Ce que Facebook Ads vous cache
SEO CAMP4.7K views

Similar to Atouts du croisement de données(20)

Seo camp ..Seo camp ..
Seo camp ..
PriscilleGiani685 views
Combiner marketing et référencement web  (seo)Combiner marketing et référencement web  (seo)
Combiner marketing et référencement web (seo)
Gestion Websource inc.841 views
Seo campus-lille 3Seo campus-lille 3
Seo campus-lille 3
Guillaume Madoux1.5K views
Formation Referencement 2014Formation Referencement 2014
Formation Referencement 2014
Guillaume Eouzan1.1K views

More from SEO Camp Association(20)

Content marketing seoContent marketing seo
Content marketing seo
SEO Camp Association89 views
Petites histoires seo vecues par un seoPetites histoires seo vecues par un seo
Petites histoires seo vecues par un seo
SEO Camp Association124 views
Excel au service de votre SEOExcel au service de votre SEO
Excel au service de votre SEO
SEO Camp Association168 views
Data, algorithmes et automatisationData, algorithmes et automatisation
Data, algorithmes et automatisation
SEO Camp Association67 views
Les technologies TAL et le futur du SEOLes technologies TAL et le futur du SEO
Les technologies TAL et le futur du SEO
SEO Camp Association2.9K views

Atouts du croisement de données

  • 1. 1#seocamp Audit SEO : Atouts du croisement de données jeudi 22 mars 2018
  • 2. 2#seocamp Olivier DUFFEZ Créateur du site webrankinfo.com Consultant SEO webrankexpert.com Formateur SEO ranking-metrics.fr Cofondateur de la plateforme SEO myrankingmetrics.com
  • 4. 4#seocamp Noyé sous les données ■ SEO, nous avons accès à de + en + de données ■ C’est très utile ! Mais un piège également… ■ Le risque : ne plus savoir quoi (en) faire
  • 5. 5#seocamp Le but de cette présentation... Comment exploiter au maximum toutes ces données ? ■ Issues d’un audit SEO (crawler + analyseur) ■ + de Google Analytics ■ + de Google Search Console
  • 6. 6#seocamp A quoi sert un audit SEO ? Il sert à trouver : ■ des problèmes qui pénalisent le référencement du site ■ des idées d’optimisation du référencement
  • 7. 7#seocamp Quel est le but d’un audit SEO ? Lister des recommandations : ■ applicables ■ triées par rentabilité décroissante ■ permettant d’améliorer le référencement du site
  • 8. 8#seocamp D’un audit “standard” à un audit couplé à des données externes 1
  • 9. 9#seocamp Audit standard : crawl + analyse 1. Le crawler récupère toutes les pages du site 2. L’analyseur traite les données et formate des résultats Au final, on essaie de repérer les pages avec problèmes ■ On essaie d’évaluer la qualité des pages ■ Si c’est bien fait, on se concentre sur les pages à problèmes
  • 10. 10#seocamp Audit standard : crawl + analyse Crawler Analyseur L’audit standard permet d’évaluer la qualité “intrinsèque” de chaque page indexable évaluation de qualité pour chaque page
  • 11. 11#seocamp Comment évaluer la qualité intrinsèque ? Il faut tenir compte de toutes les caractéristiques techniques et de contenu de chaque page, notamment : ■ contenu inédit dans la zone principale ■ rapidité, profondeur, compatibilité mobile ■ optimisation des balises HTML classiques du SEO ■ etc.
  • 12. 12#seocamp Audit avancé : crawl + analyse + couplage Données externes performance réelle de chaque page Crawler Analyseur évaluation de qualité pour chaque page Grâce à toutes ces données, l’audit peut aboutir à des recommandations à haute valeur ajoutée données enrichies
  • 13. 13#seocamp Comment valider l’estimation de qualité ? Etude sur 1,2 milliard de visites, 42 millions de pages 2
  • 14. 14#seocamp Mon étude RM Tech Sur ma plateforme My Ranking Metrics, je dispose de big data pour des dizaines de milliers d’audits SEO. La qualité intrinsèque de chaque page indexable est calculée par un algorithme spécifique : QualityRisk.
  • 15. 15#seocamp Mon étude RM Tech Quelques chiffres (étude mars 2018) : ■ 4 823 sites audités ■ 42 543 337 pages, dont ○ 27 millions indexables ○ 8 millions actives ■ 1 171 411 276 sessions générées en “organic” (réft . naturel)
  • 16. 16#seocamp Mon étude RM Tech Précisions : ■ chaque page d’accueil est exclue pour ne pas fausser l’analyse (le trafic “marque” n’est pas réellement “organic”) ■ 100% des données ont pu être récupérées (par l’API), sans jamais avoir d’échantillonnage
  • 17. 17#seocamp 1 : analyse de la profondeur Précisions : ■ la profondeur est le nombre de clics nécessaires (sur des liens suivis par Google) pour atteindre la page ■ page d’accueil (ignorée ici) : 0 ■ pages atteignables depuis l’accueil : 1 ■ etc.
  • 18. 18#seocamp Résultats : profondeur Les pages de profondeur 1 à 3 génèrent 8 fois + de visites SEO que celles de profondeur 4 ou plus !
  • 19. 19#seocamp 2 : analyse du manque de contenu Précisions : ■ Nous nous concentrons sur le contenu de la zone principale de la page (c’est idiot d’inclure menu, sidebar, footer…) ■ l’exigence de taille dépend des cas de figure (article éditorial, listing, site ecommerce, etc.) ■ un indice est calculé de 0 (aucun manque de contenu) à 100 (manque total de contenu)
  • 20. 20#seocamp Résultats : manque de contenu Les pages avec assez de contenu texte génèrent 4,5 fois + de visites SEO que celles qui en manquent !
  • 21. 21#seocamp 3 : analyse de la qualité intrinsèque Précisions : ■ L’indice QualityRisk est calculé à partir de nombreux critères on-page et on-site ■ il représente le risque qu’un internaute (ou Google) soit déçu par la qualité intrinsèque de la page ■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)
  • 22. 22#seocamp Résultats : qualité intrinsèque Les pages sans aucun problème de qualité génèrent 12 fois + de visites SEO que celles qui en ont (QualityRisk > 20) !
  • 23. 23#seocamp Remarque QualityRisk et UX ■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais justement en le couplant avec, des analyses UX / SEO sont possibles ■ cela permet tout de même des analyses avancées même quand on ne dispose pas des données Google Analytics
  • 24. 24#seocamp Quelles recommandations SEO peut-on tirer du couplage des données ? 3
  • 25. 25#seocamp 1- Notion de Page active ■ Avec les données Google Analytics, sur la période : ○ page active : elle a généré des visites (organic) ■ Avec les données Google Search Console, sur la période : ○ page active : elle a reçu des clics ○ page indexée : pas de clics, mais des impressions
  • 26. 26#seocamp 1- Notion de Page active ■ Analyse simple mais essentielle... ■ En croisant avec les données du crawl, on comprend pourquoi certaines pages (ou types de pages) sont inactives ■ Les rendre actives augmente (évidemment) le trafic !
  • 27. 27#seocamp 2- Pages à supprimer ou désindexer ■ Les pages de trop mauvaise qualité plombent le reste du site (Panda, Phantom et autres algos qualité) ■ Repérez les pires pour les supprimer ou désindexer ■ Le couplage du crawl et des données de performances fait gagner un temps gigantesque ■ L’analyse humaine doit toujours avoir le dernier mot
  • 28. 28#seocamp 2- Pages à supprimer ou désindexer Calculez un indice par page basé au moins sur : ■ les performances actuelles (on cherche les pages sans trafic) ■ la qualité intrinsèque (on cherche les pages très décevantes) ■ les backlinks (on cherche les pages sans BL intéressants) ■ le CA généré (on cherche les pages à CA nul) Permet de faire ressortir parmi l’immensité des pages du site celles à supprimer sans crainte (pas d’impact trafic / CA)
  • 29. 29#seocamp 3- Pages rentables à travailler en 1er Pendant longtemps, j’ai fait mes audits avec un simple crawler Difficile de savoir par quoi commencer pour satisfaire le client ! Il faut trier parmi plein de cas de figure : ■ les pages qui performent déjà bien et pour lesquelles on trouve encore des choses à améliorer ■ les pages à performance moyenne ou faible, mais avec beaucoup de choses à améliorer ■ les pages à performance très faible, où tout est à améliorer
  • 30. 30#seocamp 3- Pages rentables à travailler en 1er Calculez un indice de rentabilité par page basé au moins sur : ■ les performances actuelles ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque) ■ la difficulté d’amélioration Permet de faire ressortir parmi l’immensité des pages du site les plus rentables à travailler (gain en trafic / effort à fournir) + de détails dans cette vidéo de 35’
  • 31. 31#seocamp 4- Pages à améliorer en termes UX ■ Les internautes arrivés depuis Google (organic) déçus par votre site reviennent dans les SERP. ■ C’est un très mauvais signal envoyé à Google ! ■ Si c’est fréquent pour votre site, sa visibilité va chuter PS : ne confondez pas tout ■ uniquement les internautes venant des SERP (organic) ■ c’est différent du taux de rebond pris isolément
  • 32. 32#seocamp 4- Pages à améliorer en termes UX Calculez un indice de déception (internaute) basé au moins sur : ■ des données Analytics liées à l’internaute (taux de rebond, nb de pages vues / session, en comparant les pages entre elles et non par rapport à un idéal universel qui n’existe pas) ■ les performances actuelles (sessions générées en “organic”) ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
  • 33. 33#seocamp 4- Pages à améliorer en termes UX Permet de faire ressortir parmi l’immensité des pages du site celles qui génèrent le plus de déception détectable par Google
  • 34. 34#seocamp 5- Pages à pousser en page 1 de Google Ce n’est pas un scoop, pas grand monde s’aventure en page 2 des SERP… C’est encore plus flagrant sur mobile, donc l’impact de cette habitude va augmenter. Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)
  • 35. 35#seocamp 5- Pages à pousser en page 1 de Google
  • 36. 36#seocamp 5- Pages à pousser en page 1 de Google
  • 37. 37#seocamp 5- Pages à pousser en page 1 de Google Calculez un indice de potentiel par page basé au moins sur : ■ le volume de recherches des requêtes pour cette page ■ le potentiel d’amélioration (cf. indice de qualité intrinsèque) ■ la position moyenne actuelle Permet de faire ressortir les pages avec le meilleur ratio “nombre de visites à gagner” / “effort à fournir” Parfois on trouve des pépites (page #1 sans trop d’efforts)
  • 38. 38#seocamp Conseils (retours d’expérience) 1. Basez-vous sur les pages indexables ! ○ débrouillez-vous pour en obtenir la liste ○ ne prenez pas simplement un export du crawl (tenez compte des noindex, canonical, etc.) ○ sinon vous perdrez du temps
  • 39. 39#seocamp Conseils (retours d’expérience) 2. Choisissez bien la période pour récupérer les données ! ○ stratégique en cas de saisonnalités ○ permet d’anticiper les saisons futures Pour certaines analyses, 1 an de données c’est mieux. Pour d’autres, il faut personnaliser selon l’analyse.
  • 40. 40#seocamp Conseils (retours d’expérience) 3. Ne vous basez pas sur des données non fiables ! ○ exemple typique : prendre les valeurs dans Google Analytics sans vérifier s'il y a eu de l'échantillonnage ○ l'échantillonnage est fréquent, surtout avec 1 an de données
  • 41. 41#seocamp Conseils (retours d’expérience) 4. Soyez exhaustifs ! ○ par exemple dans Search Console, combinez les données de tous les sous-domaines ○ attention aussi à HTTP / HTTPS
  • 42. 42#seocamp Le mot de la fin Ce n'est qu'un aperçu des possibilités du couplage d'un audit SEO avec des données externes… Elles sont impossibles à faire "à la main" et apportent une très forte valeur ajoutée ! Pour ma part j'en fait d'autres que celles-ci, je les rendrai publiques un peu plus tard ;-)
  • 43. 43#seocamp Question Mug Selon mon étude, les pages sans problème de qualité génèrent + de trafic SEO que les pages pourries (QualityRisk > 20) : ■ 2x plus ? ■ 6x plus ? ■ 12x plus ?