Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Comment tirer le meilleur parti des données de crawl sur un site de petites annonces ?

497 views

Published on

Erlé Alberton, Customer Success Manager @OnCrawl et Philippe Sasso, Consultant SEO @Resoneo ont donné une conférence lors de We Love SEO 2018 sur la meilleure manière de tirer profit des données de crawl lorsque l'on est un site de petites annonces.

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Comment tirer le meilleur parti des données de crawl sur un site de petites annonces ?

  1. 1. #wls18 Search Marketing Conferences#WLS18
  2. 2. #wls18 Search Marketing Conferences#WLS18 Comment tirer le meilleur parti des données de crawl sur un site de petites annonces ? ÉTUDE DE CAS ERLÉ ALBERTON @cubilizer Customer Success Manager @OnCrawl PHILIPPE SASSO Consultant Senior SEO @Resoneo
  3. 3. Plan de vol 1. Introduction 2. Exploiter le maillage interne 3. Travailler les croisements de valeur 4. Volatilité des annonces et indexation 5. Résultats
  4. 4. #wls18 Comment fonctionne Google ? Les algorithmes de Google sont des programmes informatiques conçus pour naviguer parmi des milliards de pages, y déceler les bons indices A la suite d’un processus de classement des sites/pages, Google doit vous renvoyer exactement la réponse à votre requête https://www.google.com/search/howsearchworks/ L’exploration et l'indexation des milliards de documents qui constituent le Web est une tâche automatisée.. mais chronophage… même pour des machines !
  5. 5. #wls18 Google consomme annuellement autant d’énergie que la ville de San Francisco journaldugeek 12/12/2016
  6. 6. #wls18 Google Crawl budget C’est le temps, l’énergie, les $ que Google vous alloue pour parcourir un site… les algorithmes doivent optimiser les coûts de traitement…
  7. 7. #wls18 Relation entre crawl (Log) et impressions (GSC) Il y a une relation forte entre la fréquence de visite de Google bot et les impressions !
  8. 8. Penser Keljob pour que son architecture valorise les croisements intéressants, les offres pertinentes et le trafic naturel
  9. 9. #wls18 Squelette et architecture du site C’est un ensemble de pages qui correspond à la Home et aux listes de résultats en y excluant : • la pagination, • les pages “annonces”, • la partie éditoriale, • les éventuelles pages de plan de site (Made in SEO), • tout le contenu connexe L’idée est de travailler sur le maillage interne des listes de résultats pour en améliorer la profondeur sans tenir compte des éléments artificiels tels que : • chemin de fer ou maillage depuis les offres d’emploi • pseudo pages “plan de site” • maillage depuis l’éditorial Comment définir le squelette ? Setting d’un crawl restreint à l’architecture du site Optimisation d’un virtual robots.txt
  10. 10. #wls18 Etat des lieux Lors de l’analyse, le crawl (avant intervention sur le maillage) révèle que 72% des pages sont en profondeur >= 6 Hypothèse : la profondeur des documents est l’un des critères de la Page Importance Organisation du squelette du site avant intervention sur le maillage interne Brevet de Google sur la page Importance
  11. 11. #wls18 Actions Optimisation standard du maillage entre les listes de résultats : Maillage classique à partir des différentes facettes du moteur Ajout de liens vers les entités géographiques connexes Ajout de liens croisés sur des typologies et des géographies Exemple: métier + ville, secteur + ville, … Ajout de liens vers les métiers similaires Condition : uniquement s’il y a un véritable intérêt pour l’internaute ! UX first / SEO will follow
  12. 12. #wls18 x2.5 Résultats Optimisation standard du maillage entre les listes de résultats : Un constat: 50% des offres d’emploi sont accessibles via une URL du squelette (ie hors pagination). Next Step: améliorer ce ratio en retravaillant les valeurs des facettes Avant 72% des pages niveau 6 et + Après 50% des pages niveau 4 et -
  13. 13. Test & Learn Comment se rendre compte qu’une optimisation fonctionne ou non?
  14. 14. #wls18 Maillage des listes de résultats Facettes simples • métier • secteur • entreprise • localisation Objectif : Exploiter les combinaisons offertes par les différentes facettes pour générer des landing pages correspondantes aux recherches des internautes Facettes composées • métier + localisation • secteur + localisation • entreprise + localisation (!) Facettes à exclure • salaire • date • type de contrat Combinaisons contre productives • métier + secteur • entreprise + secteur • entreprise + métier • entreprise + localisation (!)
  15. 15. Maillage des listes de résultats Sur Keljob, nous avons intégré : • des métiers similaires • des localités voisines • des secteurs associés • des métiers liés à un secteur • … tout ce que la base de données nous permet d’exploiter en restant utile pour l’internaute En fonction de chaque typologie de site, les liens <a href> seront posés : • directement sur les facettes • au sein de box de liens (contenu <aside>) • au cœur du fil d’Ariane. Ne sont affichés que des liens ayant réellement des offres d’emploi!
  16. 16. #wls18 L’une de nos cibles principales : les combinaisons métier + localité Maillage des listes de résultats Résultat de l’analyse du crawl Aucun lien depuis: • la Home Page • les pages métier • les pages localisation !!! Changement de stratégie le netlinking interne sera construit sur un Top Villes
  17. 17. Offres d’emploi : pages avec beaucoup de volatilité
  18. 18. #wls18 Crawl et indexation des offres Particularités des offres d’emploi (et des annonces en général) • Objets éphémères (date d’expiration) • Correspondent à du trafic de longue traîne Avec les offres d’emploi, le challenge SEO est d’arriver à indexer l’offre et générer du trafic avant que cette dernière ne soit retirée du site ! Crawl septembre 2018
  19. 19. #wls18 Catégorisation par date de parution et Cross Analyse Grouper las pages par date de publication permet de suivre les performance du crawl et de l’indexation des offres Graph 1: performance de ranking par mois de publication Graph 2: découverte des pages offres à 100% pour le trimestre Graph 3: fréquence de crawl de Google Bot optimisé par mois de publication
  20. 20. #wls18 Googlebot & les annonces Avant de se positionner dans les SERPs une page doit d’abord être indexée et crawlée ! Annonces crawlées par Googlebot Annonces Crawl ratio Pages in structure not crawled last week 14 210 16,83% 83,17% week -1 14 285 39,71% 60,29% week -2 11 149 57,55% 42,45% week -3 7 494 52,82% 47,18% week -4 3 760 57,67% 42,33% older 87 50,00% 52,87% Global 50 985 39,49% 60,51%
  21. 21. #wls18 Quelques idées pour améliorer l’indexation des offres Module de maillage des annonces depuis l’edito Maillage classique vers les offres d’emploi • via les listes de résultats (25 offres / page) • via des modules d’offres similaires (5 offres / page) Maillage depuis les articles « Edito » • Développement d’un module de mise en relation entre les articles et les offres d’emploi
  22. 22. #wls18 Annonces crawlées par Googlebot Annonces Crawl ratio Pages in structure not crawled last week 21 723 32,18% 67,82% week -1 12 795 56,55% 43,45% week -2 10 079 62,66% 37,34% week -3 8 897 65,01% 34,99% week -4 758 86,02% 13,98% Global 54 252 49,73% 50,27% Quelques idées pour améliorer l’indexation des offres Sitemaps XML • 1 sitemap des offres récentes (date de publication < 3 jours) • 1 sitemap des autres offres Conseil SEO <lastmod> Ajouter les heures et les minutes à la date pour accélérer le crawl de GoogleBot
  23. 23. #wls18 Indexation des offres d’emploi – Next Step https://developers.google.com/search/docs/data-types/job-posting?hl=fr https://developers.google.com/search/apis/indexing-api/?hl=fr
  24. 24. #wls18 Résultats Crawl septembre 2018
  25. 25. #wls18 Quelles sont les pages qui contribuent le plus à votre visibilité ? Popularité interne (Inrank), load time, depth, word count… Une fois connues et croisées avec les données issues des LOGs et de GSC, vous avez toutes les armes pour comprendre ce que Google comprend de votre site !
  26. 26. #wls18 Plonger dans les données disponibles de Google permet d’ouvrir la boîte noire de l’algorithme ! François Goube – OnCrawl CEO
  27. 27. A Vous de Jouer ! Vous avez les clés pour déterminer des optimisations et analyser les impacts sur votre trafic naturel !
  28. 28. #wls18 Search Marketing Conferences#WLS18

×