2. 2#seocamp
Olivier DUFFEZ
Créateur du site
webrankinfo.com
Consultant SEO
webrankexpert.com
Formateur SEO
ranking-metrics.fr
Cofondateur de la
plateforme SEO
myrankingmetrics.com
4. 4#seocamp
Noyé sous les données
■ SEO, nous avons accès à de + en + de données
■ C’est très utile ! Mais un piège également…
■ Le risque : ne plus savoir quoi (en) faire
5. 5#seocamp
Le but de cette présentation...
Comment exploiter au maximum toutes ces données ?
■ Issues d’un audit SEO (crawler + analyseur)
■ + de Google Analytics
■ + de Google Search Console
6. 6#seocamp
A quoi sert un audit SEO ?
Il sert à trouver :
■ des problèmes qui pénalisent le référencement du site
■ des idées d’optimisation du référencement
7. 7#seocamp
Quel est le but d’un audit SEO ?
Lister des recommandations :
■ applicables
■ triées par rentabilité décroissante
■ permettant d’améliorer le référencement du site
9. 9#seocamp
Audit standard : crawl + analyse
1. Le crawler récupère toutes les pages du site
2. L’analyseur traite les données et formate des résultats
Au final, on essaie de repérer les pages avec problèmes
■ On essaie d’évaluer la qualité des pages
■ Si c’est bien fait, on se concentre sur les pages à problèmes
10. 10#seocamp
Audit standard : crawl + analyse
Crawler Analyseur
L’audit standard permet d’évaluer
la qualité “intrinsèque” de chaque page indexable
évaluation de qualité
pour chaque page
11. 11#seocamp
Comment évaluer la qualité intrinsèque ?
Il faut tenir compte de toutes les caractéristiques techniques et
de contenu de chaque page, notamment :
■ contenu inédit dans la zone principale
■ rapidité, profondeur, compatibilité mobile
■ optimisation des balises HTML classiques du SEO
■ etc.
12. 12#seocamp
Audit avancé : crawl + analyse + couplage
Données
externes performance réelle
de chaque page
Crawler Analyseur
évaluation de qualité
pour chaque page
Grâce à toutes ces données, l’audit peut aboutir à
des recommandations à haute valeur ajoutée
données
enrichies
14. 14#seocamp
Mon étude RM Tech
Sur ma plateforme My Ranking Metrics, je dispose de big data
pour des dizaines de milliers d’audits SEO.
La qualité intrinsèque de chaque page indexable est calculée
par un algorithme spécifique : QualityRisk.
15. 15#seocamp
Mon étude RM Tech
Quelques chiffres (étude mars 2018) :
■ 4 823 sites audités
■ 42 543 337 pages, dont
○ 27 millions indexables
○ 8 millions actives
■ 1 171 411 276 sessions générées en “organic” (réft
. naturel)
16. 16#seocamp
Mon étude RM Tech
Précisions :
■ chaque page d’accueil est exclue pour ne pas fausser
l’analyse (le trafic “marque” n’est pas réellement “organic”)
■ 100% des données ont pu être récupérées (par l’API),
sans jamais avoir d’échantillonnage
17. 17#seocamp
1 : analyse de la profondeur
Précisions :
■ la profondeur est le nombre de clics nécessaires
(sur des liens suivis par Google) pour atteindre la page
■ page d’accueil (ignorée ici) : 0
■ pages atteignables depuis l’accueil : 1
■ etc.
19. 19#seocamp
2 : analyse du manque de contenu
Précisions :
■ Nous nous concentrons sur le contenu de la zone principale
de la page (c’est idiot d’inclure menu, sidebar, footer…)
■ l’exigence de taille dépend des cas de figure (article éditorial,
listing, site ecommerce, etc.)
■ un indice est calculé de 0 (aucun manque de contenu) à 100
(manque total de contenu)
20. 20#seocamp
Résultats : manque de contenu
Les pages avec assez de contenu texte
génèrent 4,5 fois + de visites SEO
que celles qui en manquent !
21. 21#seocamp
3 : analyse de la qualité intrinsèque
Précisions :
■ L’indice QualityRisk est calculé à partir de nombreux critères
on-page et on-site
■ il représente le risque qu’un internaute (ou Google) soit déçu
par la qualité intrinsèque de la page
■ il va de 0 (aucun problème) à 100 (qualité très mauvaise)
22. 22#seocamp
Résultats : qualité intrinsèque
Les pages sans aucun problème de qualité
génèrent 12 fois + de visites SEO
que celles qui en ont (QualityRisk > 20) !
23. 23#seocamp
Remarque QualityRisk et UX
■ QualityRisk n’utilise aucune donnée liée à l’utilisateur, mais
justement en le couplant avec, des analyses UX / SEO sont
possibles
■ cela permet tout de même des analyses avancées même
quand on ne dispose pas des données Google Analytics
25. 25#seocamp
1- Notion de Page active
■ Avec les données Google Analytics, sur la période :
○ page active : elle a généré des visites (organic)
■ Avec les données Google Search Console, sur la période :
○ page active : elle a reçu des clics
○ page indexée : pas de clics, mais des impressions
26. 26#seocamp
1- Notion de Page active
■ Analyse simple mais essentielle...
■ En croisant avec les données du crawl, on comprend
pourquoi certaines pages (ou types de pages) sont inactives
■ Les rendre actives augmente (évidemment) le trafic !
27. 27#seocamp
2- Pages à supprimer ou désindexer
■ Les pages de trop mauvaise qualité plombent le reste du site
(Panda, Phantom et autres algos qualité)
■ Repérez les pires pour les supprimer ou désindexer
■ Le couplage du crawl et des données de performances fait
gagner un temps gigantesque
■ L’analyse humaine doit toujours avoir le dernier mot
28. 28#seocamp
2- Pages à supprimer ou désindexer
Calculez un indice par page basé au moins sur :
■ les performances actuelles (on cherche les pages sans trafic)
■ la qualité intrinsèque (on cherche les pages très décevantes)
■ les backlinks (on cherche les pages sans BL intéressants)
■ le CA généré (on cherche les pages à CA nul)
Permet de faire ressortir parmi l’immensité des pages du site
celles à supprimer sans crainte (pas d’impact trafic / CA)
29. 29#seocamp
3- Pages rentables à travailler en 1er
Pendant longtemps, j’ai fait mes audits avec un simple crawler
Difficile de savoir par quoi commencer pour satisfaire le client !
Il faut trier parmi plein de cas de figure :
■ les pages qui performent déjà bien et pour lesquelles on
trouve encore des choses à améliorer
■ les pages à performance moyenne ou faible, mais avec
beaucoup de choses à améliorer
■ les pages à performance très faible, où tout est à améliorer
30. 30#seocamp
3- Pages rentables à travailler en 1er
Calculez un indice de rentabilité par page basé au moins sur :
■ les performances actuelles
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la difficulté d’amélioration
Permet de faire ressortir parmi l’immensité des pages du site les
plus rentables à travailler (gain en trafic / effort à fournir)
+ de détails dans cette vidéo de 35’
31. 31#seocamp
4- Pages à améliorer en termes UX
■ Les internautes arrivés depuis Google (organic) déçus par
votre site reviennent dans les SERP.
■ C’est un très mauvais signal envoyé à Google !
■ Si c’est fréquent pour votre site, sa visibilité va chuter
PS : ne confondez pas tout
■ uniquement les internautes venant des SERP (organic)
■ c’est différent du taux de rebond pris isolément
32. 32#seocamp
4- Pages à améliorer en termes UX
Calculez un indice de déception (internaute) basé au moins sur :
■ des données Analytics liées à l’internaute (taux de rebond, nb
de pages vues / session, en comparant les pages entre elles et
non par rapport à un idéal universel qui n’existe pas)
■ les performances actuelles (sessions générées en “organic”)
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
33. 33#seocamp
4- Pages à améliorer en termes UX
Permet de faire ressortir parmi l’immensité des pages du site
celles qui génèrent le plus de déception détectable par Google
34. 34#seocamp
5- Pages à pousser en page 1 de Google
Ce n’est pas un scoop, pas grand monde s’aventure en page 2
des SERP…
C’est encore plus flagrant sur mobile, donc l’impact de cette
habitude va augmenter.
Je l’ai étudié fin 2017, c’est impressionnant (cf. WebRankInfo)
37. 37#seocamp
5- Pages à pousser en page 1 de Google
Calculez un indice de potentiel par page basé au moins sur :
■ le volume de recherches des requêtes pour cette page
■ le potentiel d’amélioration (cf. indice de qualité intrinsèque)
■ la position moyenne actuelle
Permet de faire ressortir les pages avec le meilleur ratio
“nombre de visites à gagner” / “effort à fournir”
Parfois on trouve des pépites (page #1 sans trop d’efforts)
38. 38#seocamp
Conseils (retours d’expérience)
1. Basez-vous sur les pages indexables !
○ débrouillez-vous pour en obtenir la liste
○ ne prenez pas simplement un export du crawl
(tenez compte des noindex, canonical, etc.)
○ sinon vous perdrez du temps
39. 39#seocamp
Conseils (retours d’expérience)
2. Choisissez bien la période pour récupérer les données !
○ stratégique en cas de saisonnalités
○ permet d’anticiper les saisons futures
Pour certaines analyses, 1 an de données c’est mieux.
Pour d’autres, il faut personnaliser selon l’analyse.
40. 40#seocamp
Conseils (retours d’expérience)
3. Ne vous basez pas sur des données non fiables !
○ exemple typique : prendre les valeurs dans Google Analytics
sans vérifier s'il y a eu de l'échantillonnage
○ l'échantillonnage est fréquent, surtout avec 1 an de données
42. 42#seocamp
Le mot de la fin
Ce n'est qu'un aperçu des possibilités du couplage d'un audit
SEO avec des données externes…
Elles sont impossibles à faire "à la main" et apportent une très
forte valeur ajoutée !
Pour ma part j'en fait d'autres que celles-ci, je les rendrai
publiques un peu plus tard ;-)
43. 43#seocamp
Question Mug
Selon mon étude, les pages sans
problème de qualité génèrent + de
trafic SEO que les pages pourries
(QualityRisk > 20) :
■ 2x plus ?
■ 6x plus ?
■ 12x plus ?