Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

OnCrawl Breakfast - Refonte et Analyse de logs

262 views

Published on

Retour sur notre conférence en compagnie de l'agence Open Linking à Annecy le 27 février 2018.
Au programme :
- Comment fonctionne Google
- Crawl Budget de Google
- Comment suivre les variations du crawl
- Best practices de refonte : 3 étapes clés
--
Démarrez votre essai gratuit sur https://app.oncrawl.com/signup

Published in: Internet
  • Be the first to comment

  • Be the first to like this

OnCrawl Breakfast - Refonte et Analyse de logs

  1. 1. #oncrawlbreakfa
  2. 2. Refonte SEO et Analyse de Logs les Best Practices
  3. 3. J’adore que que vos refontes améliorent votre SEO… ERLE ALBERTON CUSTOMER SUcCESS manager 10 ans de dev / 5 ans de SEO dont 2 ans en tant que responsable SEO des boutiques en ligne Orange et Sosh spécialiste schema.org seo monk ONCRAWL TRAinER customer climax
  4. 4. Plan de vol 1. Comment fonctionne Google 2. Crawl Budget de Google 3. Comment suivre les variations du crawl 4. Best practices de refonte : 3 étapes clés
  5. 5. Comment fonctionne Google ? Google n’est qu’un ensemble d’algorithmes qui sont exécutés sur des machines consommant de l’énergie… cette consommation d’énergie à un coût qui doit être facilité pour améliorer les rankings Une refonte de site est le meilleur moment pour améliorer votre qualité technique et le montrer à Google Google va devoir re-parcourir votre site intégralement
  6. 6. Google consomme annuellement autant d’énergie que la ville de San Francisco
  7. 7. Crawl Budget C’est le crédit que Google alloue à l’ensemble de ses robots pour parcourir les URLs d’un site web • Google ne peut pas tout crawler tout le temps • Pour avoir la meilleure réponse il faut connaitre toutes les pages • Pour avoir la meilleure réponse il faut la dernière version de la page Google doit optimiser ses coûts de traitement… vous devez l’aider !
  8. 8. Limites de la Google Search Console Elle permet de constater des évolutions dans le comportement de crawl de Google Elle ne donne qu’une indication du comportement des 12 Google Bots L’analyse de logs couplée au crawl permet de catégoriser les pages et suivre le budget de crawl par section Période de Refonte Tests
  9. 9. Comment suivre les variations du crawl? L’analyse des logs serveur et le croisement des données permettent de détecter les facteurs déclencheurs de la fréquence de Crawl Quels sont les pain points à corriger ? Quelles valeurs doivent prendre mes métriques ? Quel impact a eu ma refonte sur mes rankings et mes visites ?
  10. 10. MOZ Blog : Vos fichiers de logs contiennent les seules données qui sont 100% exactes quant à la façon dont les moteurs de recherche parcourent votre site Web
  11. 11. Traquer Google avec les fichiers de logs A chaque fois qu’un visiteur passe sur une page il laisse des traces dans des fichiers de logs Google est un visiteur (presque) comme un autre il laisse ses traces et nous les analysons
  12. 12. Les 3 étapes clés de la refonte Connaitre son site, l’état de l’art : Quels sont les pain points à corriger ? Comprendre les seuils à atteindre pour chaque métrique : Quelles valeurs comptent et favorisent le crawl budget ? Suivi de la mise en ligne : Quel impact a eu ma refonte sur mes rankings et mes visites ?
  13. 13. Catégoriser les pages par importance et/ou section Permet de mettre tout de suite en valeur les rapports de crawl ou le logs et faire les bons choix ensuite
  14. 14. Connaitre son site le crawl et les logs Crawl - Vérifier les status codes - Vérifier l’indexabilité : sitemaps, denied robots/meta - Vérifier les alternate, hreflang, canonical - Vérifier le maillage interne : InRank, liens cassés - Vérifier les balises importantes : title, H1, desc, schema.org, OG - Vérifier le contenu : qualité, volume, répartition - Vérifier le duplicate content : near duplicate, impact du layout - Vérifier les temps de chargement
  15. 15. Vérifier les status codes Vérifier les sitemapsVérifier le contenu Vérifier l’indexabilité Vérifier les balises SEO prioritaires Vérifier les canonical
  16. 16. La problématique des liens
  17. 17. Analyse du maillage interne Plus une page reçoit de puissance par les liens, plus elle est visitée par Google Vérifier le transfert de popularité L’InRank créé par OnCrawl permet de comprendre l’architecture du site
  18. 18. Analyse du maillage interne Plus une page reçoit de puissance par les liens, plus elle est visitée par Google Vérifier le transfert de popularité L’InRank créé par OnCrawl permet de comprendre l’architecture du site
  19. 19. Analyse du maillage interne Plus une page reçoit de puissance par les liens, plus elle est visitée par Google Vérifier le transfert de popularité L’InRank créé par OnCrawl permet de comprendre l’architecture du site
  20. 20. Vérifier le duplicate content Google dépense beaucoup d’énergie pour choisir la meilleure page à indexer Le crawl de vos contenus dupliquées est une perte de répartition de Budget de Crawl
  21. 21. Connaitre son site le crawl et les logs Logs : - Voir le comportement de Google bot : pages uniques crawlées, répartition des hits par section, fréquence de crawl par section - Relever les vraies visites SEO : les pages actives, les sections importantes, les nouvelles pages actives - Vérifier la santé de l’exploration des Bots : qualité technique, status codes, poids des pages et ressources
  22. 22. Logs Monitoring Crawl behavior • Suivre les variations de crawls de Google sur chaque segment du site pour chaque type de bot • Vérifier que toutes les pages optimisées pour mobile sont crawlées régulièrement • S’assurer que les pages non importantes pour Google ne consomment pas le budget de crawl
  23. 23. Logs Monitoring SEO impact Vérifier que les visites SEO arrivent sur les bonnes sections Vérifier que toutes les pages optimisées sont visitées S’assurer que les optimisations profitent au trafic SEO
  24. 24. Exploration Sanity Vérifier les Status codes retournés par le serveur durant le crawl de Google Suivre les temps de chargement l’information sur le temps de réponse serveur TTFB et/ou TTLB est un des axes majeurs d’optimisation pour le mobile
  25. 25. Quelle est ma fréquence de Crawl par section ?
  26. 26. Les bonnes valeurs croiser des données Analyser l’impact du nombre de liens, du nombre de mots, de la profondeur, du InRank, des données GSC, sur 3 KPIs majeurs : Frequency / Activness / Crawlabity Vous pouvez analyser les pages avec les meilleures performances et déduire quelles sont les bonnes valeurs des métriques pour maximiser leur SEO
  27. 27. On peut vraiment savoir ce qui plait à Google et ce qui a ou non un impact ?
  28. 28. Quelle valeur doivent atteindre mes métriques ? En croisant les données de Log avec celles du crawl vous pouvez déterminer quels sont les seuils à vos optimisations : nb de mot par page, nb de liens entrants, InRank, Temps de chargement… 3 KPI : Frequency, Activness, Crawlabity
  29. 29. L’impact de la profondeur Plus une page est profonde dans l’architecture, moins Google s’y intéresse, moins elle est à jour dans son index, moins elle génère de visites
  30. 30. Impact sur les visites Dans les logs nous pouvons tracer toutes les visites SEO (pas les sessions GA) L’impact du nombre de mots ou du nombre de liens sur le trafic généré est simplement accessible par le croisement des données de Crawl et les Logs
  31. 31. Suivi de la migration sécurité avant tout Avant le jour J : - Crawler le site en DEV pour détecter les coquilles - Comparer la prod avec la Dev Crawl Over Crawl Le jour J: - Suivre les status codes - Réagir vite Après la MEP: - Suivre la mise en place des redirection - Analyser l’impact (données croisées, GSC, Yooda, …)
  32. 32. Suivre la MEP Une bonne optimisation est une modification qui va maximiser l’appétit des robots Elle doit générer un effet instantané sur le budget de crawl
  33. 33. Comparer les versions En comparant le crawl de DEV avec celui de PROD vous vous assurez que les optimisations ont bien été mise en place Vérifier les changements de maillage, de contenu, tag SEO…
  34. 34. Impact sur les rankings En croisant les données de Log avec celles de la Google Search Console dans OnCrawl, vous pouvez mesurer l’impact de la migration (avant/après) Positions, CTR, profondeur, nombre de liens entrants, nombre de mots, temps de chargement…
  35. 35. Best practices Une bonne optimisation est une modification qui va maximiser l’appétit des robots Elle doit être tournée vers la réduction maximale des coûts en électricité de Google et l’amélioration des métriques qui comptent
  36. 36. The vision of the founders is to work very hard on the data platform to make it simple and scalable, so that everyone can work on technical SEO with accuracy
  37. 37. Testez OnCrawl avec un essai gratuit de 14 jours
  38. 38. A Vous de Jouer ! Vous avez les clés pour anticiper votre migration avec des données fiables
  39. 39. Nous serons à Les 24 & 25 mai à Genève
  40. 40. Des questions ?

×