Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

We Love SEO 2017 - Créer l'avantage concurrentiel en hackant les outils SEO

936 views

Published on

Retour sur la conférence de François Goube (OnCrawl) et Valentin Klein Di Giacomo (EasyCash) lors de la troisième édition de We Love SEO.
Au programme, comment se simplifier la vie grâce à l'automatisation, trouver les bons outils et développer ses connaissances pour devenir un super héros du SEO.
#WLS17

Published in: Internet
  • Be the first to comment

We Love SEO 2017 - Créer l'avantage concurrentiel en hackant les outils SEO

  1. 1. A propos
  2. 2. A propos Francois Goube Founder @OnCRAWL 15 years SEO experience, Serial Entrepreneur. Membre du CA SEOCamp, Trésorier Frenchtech Bordeaux Semantic Nerd Data addict & SEO maniac
  3. 3. A propos Valentin Di Giacomo Responsable Informatique @EasyCash Workaholic Multitask- Ninja Results-oriented
  4. 4. Easycash Achat / vente de produits d’occasion aux particuliers Quelques chiffres Fondé en 2001, 25 magasins Entre 2010 et 2016 +68 magasins 2016, 108 magasins en franchise pour 150M€ de CA 850 collaborateurs en France Siège 26 personnes
  5. 5. Deux sites à gérer Site web EASY CASH fondé en 2014. En 2016 3,5M€ de CA. Croissance actuelle 30% Site développé spécifiquement pour EASY CASH afin de répondre aux contraintes métiers Lancement en septembre 2016 d’un site permettant de coter en ligne plusieurs dizaines de milliers de produits. Prix.easycash.fr Easycash sur le web
  6. 6. 1. Comment devenir un Référenceur Augmenté ? 2. Quels données pour garantir l’amélioration de vos performances ? 3. De la data marketing à la Data ”Métiers” 4. Croisez les données et Hackez-les ! 5. Q&A Au programme
  7. 7. Comment devenir des Référenceurs augmentés ?
  8. 8. Depuis 2011, une avalanche d’outils et de metrics Vous vous y retrouvez ?
  9. 9. SEO : Rankings Trust Flow / Citation Flow Backlinks / Ref Domains Performance … SEA Quality score CTR CPC moyen Conversion rate ... SMO Engagement Reach ... Fini l’organisation par sillos
  10. 10. Il faut faire grandir le super-hero qui est en vous !
  11. 11. #WLS17 Super-powers = Make it simple + Knowledge + Tools
  12. 12. Méthode #1 : Simplifier vous la vie grâce à l’automatisation • Reporting • Data Studio de Google • Bime Analytics • Google Spreadsheets • Homogénéisez vos data • Ex : • Synchro ventes de votre prestashop  Objectifs ecommerce de GA • Groupez vos data selon des logiques métiers
  13. 13. Méthode #2 : Se doter des bons outils Pour votre SEO, Les basiques restent GSC, Analytics et vos logs serveurs
  14. 14. #WLS17 #ANALYTICS Permet d’extraire : • les KPIs comportementaux • la liste des pages importantes • les KPIs business • temps forts de l’année Comment les utilisateurs réagissent aux contenus ? Les comportements utilisateurs est au cœur des enjeux de croissance La validation humaine fait partie du processus de Machine Learning Une solution d’analytics doit être implémentée et contenir des DATA fiables METRICS : sources des visites part du SEO dans l’acquisition tx de rebond tps de visite nb de pages vues tx de revisite micro, macro objectifs tx de transfo tx d’abandon
  15. 15. #WLS17 #GSC Permet d’extraire : • l’évolution du budget de crawl • l’interêt pour une requêtes (impressions/requêtes) • l’engagement pour vos contenus dans les SERPS Comment Google comprend mon site ? Comment Google traverse les pages et silos ? Quels sont les freins/erreurs ? La Google Search Console est la seule vue transmise par Google Lever les freins à l’expérience des bots sur votre site est une priorité METRICS : nb d’erreurs : HTML, AMP, schema.org nb de pages indexées nb de pages crawlées/jour tps de chargement moyen – min – max Ko téléchargés/jours moyen – min - max nb HTML,metas dupliquées CTR, Impressions, positions : par requêtes / par page / par date
  16. 16. #WLS17 #LOG Permet d’extraire : • le volume de Hits Googlebot • le type de bot mobile/desktop/scrap • les visites SEO (referer Google) • la qualité des réponses (vu serveur) Les logs serveurs permettent de lire les traces laissées par les moteurs et les utilisateurs Les logs transmettent des données quantitatives et qualitatives Ce DATASET est le plus représentatif de ce qu’il se passe réellement sur le site METRICS : nb de visites robot - Hits nb de pages crawlées nb de 200,40x,30x,50x poids des ressources nb de visites SEO
  17. 17. #WLS17 La boite à outil • le savoir, l’intuition, l’expérience • les mandatory : GSC, Analytics, Logs • les outils d’exploration – plugins, crawlers • les outils d’analyse de la compétitivité • les outils d’analyse sémantique • les outils de visualisation • les outils de reporting • les outils de suivi et pilotage PLUGINS CHROME ET FF : redirectPath, majestic, open SEO stats, Wappalyzer, ua spoofer, OnCrawl Chrome Extension LES BONS SOFTS : Screaming frog, R-studio, Gephi, excel, python, mnogoSearch LES BONS TOOLS : alyze.info, OnCrawl.com, seobserver.com, myposeo.com, answerthepublic.com, google spreadsheet, gtmetrix, Google Search Console API LES BONNES FORMATIONS : SEOHighLevel, MasterClass SEO étendue des frères Peyronnet, Oncrawl Rocket Program
  18. 18. #WLS17 #2 : Se doter des bons outils Hacker votre budget ! Petit calcul à l’usage de vos clients et/ou Patrons Temps Reporting • Récupération des données 1h • Assemblage des données 1h • Analyse des données 1h • Note de reporting 1h Pour un salarié qui touche 2000€ nets  coût pour l’entreprise ~3300€ La ½ journée coûte +170€ à l’entreprise > ½ journée de travail Et si vous passiez cette demi-journée sur quelque chose de plus
  19. 19. #WLS17 BLOG FORMATIONS : HIGH LEVEL : SITES : #3 : Développez vos connaissances
  20. 20. #WLS17 Use-Cases de data SEO actionnables Les petits secrets des supers référenceurs
  21. 21. Etre omniscient Illustration Professeur Tout savoir grâce aux bonnes data Vous êtes le professeur X de votre site web
  22. 22. Savoir ce que Google fait en quasi temps réel Et comprendre les impacts SEO Suivre ses logs
  23. 23. Connaitre les types de Googlebots comme le crawler JS Suivre ses logs
  24. 24. Avoir un plan qui se déroule sans accroc Déterminer tous les paramètres Soyez Hannibal Smith
  25. 25. Avoir un plan qui se déroule sans accroc Croisez les données de crawl et de logs Trouvez quel facteur influence le comportement des bots ?
  26. 26. Avoir un plan qui se déroule sans accroc Croisez les données de crawl et de logs Trouvez quel facteur influence le comportement des bots ?
  27. 27. Avoir un plan qui se déroule sans accroc Croisez les données de crawl et de logs Trouvez quel facteur influence le comportement des bots ?
  28. 28. Avoir un plan qui se déroule sans accroc Croisez les données de crawl et de logs Trouvez quel facteur influence le comportement des bots ?
  29. 29. Avoir un plan qui se déroule sans accroc Soyez précis dans l’optimisation de votre structure de liens Hackez votre popularité interne Demandez votre accès à la beta De Oncrawl V3
  30. 30. Passer ses metrics aux rayons X Et comprendre les quick-wins
  31. 31. Comprendre ses metrics Croisez les données de crawl / logs / audience Où sont vos pages qui génèrent du trafic SEO ?
  32. 32. Comprendre ses metrics Croisez les données de crawl / logs / audience Est-ce que ça correspond à mon objectif ?
  33. 33. Comprendre ses metrics Croisez les données de crawl / logs / audience Pour définir les « metrics cibles » en un coup d’oeil
  34. 34. Comprendre ses metrics Croisez les données de crawl / logs / audience Pour comprendre les usages de ses visiteurs… …et detecter des failles dans votre performance SEO
  35. 35. #WLS17 Explorer d’autres horizons Dépasser le SEO Pour devenir super stratégique
  36. 36. Savoir ce que vous voulez faire ! Il n’y a pas de réponse magique avec la Data Science Commencez petit mais voir loin Allez chercher la donnée, la consolider, puis l’intégrer au processus de décision Posez vous la question des enjeux de votre entreprise Faire de la data un avantage concurrentiel
  37. 37. Scrapp the Data
  38. 38. EASY PRICE le moteur dynamique de cotation de produits : Fournir en temps reel un prix d’achat/vente sur des miliers de produits Basé sur l’historique des transactions des magasins Un avantage concurrentiel lié à l’évaluation des prix de l’occasion Comment consolider cet avantage ? Suivre les prix de ses concurrents Etre réactif sur les mouvements de prix du neufs Comment augmenter cet avantage ? Améliorer la base de calcul des prix de l’occasion : Proposer un prix pour un produit jamais acheté, ni vendu Anticiper des baisses de prix Un métier dont l’enjeu principal est la capacité de l’entreprise à avoir du stock Tout ce qui s’achète se vend, il faut donc sourcer un maximum ! Le cas Easycash
  39. 39. 1. Un usage quasi-quotidien de Oncrawl 2. Un accompagnement régulier dans l’exploitation des données par notre chargé de compte 3. Une bonne compréhension de notre métier par Oncrawl Easycash et le Data Scrapper : les FCS
  40. 40. Suivre les prix de ses concurrents Rien de plus simple avec le Data Scrapper de Oncrawl Etape 1: Bien paramétrer ses custom fields Se poser la question de l’activation du JS 1/ Récupérer le Xpath grâce à FireXpath 2/ Valider votre code (Spreadsheet est ton ami) Utilisez la fonction Importxml()
  41. 41. Suivre les prix de ses concurrents Rien de plus simple avec le Data Scrapper de Oncrawl Etape 1: Bien paramétrer ses custom fields Se poser la question de l’activation du JS 1/ Récupérer le Xpath grâce à FireXpath 2/ Valider votre code (Spreadsheet est ton ami) Utilisez la fonction Importxml() 3/ Renseigner le Xpath dans votre custom field
  42. 42. Suivre les prix de ses concurrents Rien de plus simple avec le Data Scrapper de Oncrawl Etape 1: Bien paramétrer ses custom fields Se poser la question de l’activation du JS 1/ Récupérer le Xpath grâce à FireXpath 2/ Valider votre code (Spreadsheet est ton ami) Utilisez la fonction Importxml() 3/ Renseigner le Xpath dans votre custom field 4/ Appuyez sur le bouton !
  43. 43. Suivre les prix de ses concurrents Rien de plus simple avec le Data Scrapper de Oncrawl Etape 2: Se servir du data Explorer pour récupérer les data
  44. 44. Suivre les prix de ses concurrents Rien de plus simple avec le Data Scrapper de Oncrawl Etape 3: Automatisez grâce à l’API Oncrawl
  45. 45. Profitez-en pour mesurer la taille de leur catalogue Ou leur rubricage / architecture de liens interne
  46. 46. Quelques exemples Rechercher dans les logs le coût des robots malveillants Utiliser le scrapping pour Contrôler le plan de tags de votre outil d’analytics (JS rendu) Surveiller l’assortiment de vos concurrents Détecter les mises à jour de vos concurrents Crawler vos concurrents pour identifier leurs optimisations Croisez les données de crawl avec Vos données de vente Vos données clients Vos taux de transformation … Détournez les outils !
  47. 47. Comprendre les enjeux de son métier et s’interroger Amélioration de marges ? Optimisation des coûts ? Changer mon organisation ? Ex: Retailer Français / 100+ Magasins “Quel est l’impact du web sur mes ventes en magasins ?” Faire de la data un avantage concurrentiel IP du First Click Connaissance client Activation carte de fidélité en ligneData Platform Logs analyzer CRM
  48. 48. >70% des ventes physiques grâce au Web ! 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% Apr-16 May-16 Jun-16 Apr-16 May-16 Jun-16 Offline 4,157 5,193 4,289 Social 1,279 1,298 903 Adwords 2,398 2,411 2,709 Organic 8,153 9,644 14,673 Attribution des transactions Organic Adwords Social Offline
  49. 49. Les données sont accessibles facilement Il est nécessaire de les “connecter” Apprenez à vous servir des API Réfléchissez à vos problématiques metiers Conclusion
  50. 50. Questions ? @Oncrawl Francois@cogniteev.com

×