Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

OnCrawl Webinar - 5 cas pratiques avec OnCrawl Data Ingestion

125 views

Published on

OnCrawl Data Ingestion permet d'intégrer n'importe quel set de données tierces à vos rapports de crawl. Enrichissez vos analyses avec vos différents jeux de données et obtenez une vue complète de l'environnement de votre site web.

Au programme de ce webinaire :
- Présentation de OnCrawl Data Ingestion
- Présentation de 5 cas pratiques actionnables :
• Mesurer ses revenus par URL issus de Google Analytics
• Mesurer son CPA par URL issu de Adwords
• 2 uses cases sur la Search Console (impressions vs CTR vs Crawl ou Logs)
• 1 use case avec Insight de Yooda
- La méthodologie pour mettre en place ses propres analyses
- Questions / Réponses

Published in: Internet
  • Be the first to comment

  • Be the first to like this

OnCrawl Webinar - 5 cas pratiques avec OnCrawl Data Ingestion

  1. 1. Webinaire #oncrawlwebinar OnCrawl Data Ingestion Par Erlé Alberton, Customer Success Manager
  2. 2. Webinar #oncrawlwebinar J’adore quand une donnée externe est couplée à vos analyses… ERLE ALBERTON CUSTOMER SUcCESS manager 10 ans de dev / 5 ans de SEO dont 2 ans en tant que responsable SEO des boutiques en ligne Orange et Sosh spécialiste schema.org seo monk ONCRAWL TRAinER customer climax
  3. 3. Webinar #oncrawlwebinar 1. Introduction à la feature : Data Ingestion 2. Comment fonctionne OnCrawl Data Ingestion 3. L’interface de Data Ingestion 4. La mise en œuvre de vos sets de données 5. Use Cases De la méthode à l’exploitation
  4. 4. Webinar #oncrawlwebinar Enrichissez vos analyses avec des sets de données tierces Vous pouvez maintenant intégrer n’importe quels fichiers CSV dans OnCrawl et ajouter de nouveaux champs dans vos analyses SEO OnCrawl Data Ingestion vous permet d’ajouter des champs personnalisés provenant d’un fichier extérieur à chaque URL d’un rapport de crawl et donc d’enrichir vos analyses et croiser de nouvelles données avec vos Crawls et vos logs Ces données peuvent être ajoutées et/ou mises à jour simplement à chaque lancement de Crawl
  5. 5. Webinar #oncrawlwebinar Comment fonctionne la Data Ingestion Le principe est simple, chaque fichier ingéré doit contenir : à minima un champ « URL » et une liste de variables séparées par des « ; » Ce fichier peut contenir autant de champs que désirés et doit commencer par une ligne donnant le nom des champs – ils seront repris par OnCrawl ensuite Avant de lancer un crawl, vous pouvez fournir un ou plusieurs fichiers contenant les champs du jeu de données tierces que vous souhaitez ajouter à votre rapport NB : le fichier doit être zippé avant upload
  6. 6. Webinar #oncrawlwebinar Comment mettre en place la Data Ingestion Pour ajouter un ou des fichiers, il faut se rendre dans la partie « ADD INTEGRATIONS » sur la home page du projet Ce processus est important pour s’assurer de la qualité des données ingérées (type des variables, compréhension du fichier, erreurs dans le jeu de données, …) NB : il est parfois nécessaire de modifier les exports de certains outils pour coller à nos spécifications La documentation OnCrawl
  7. 7. Webinar #oncrawlwebinar L’interface de Data Ingestion Nous avons rendu l’interface la plus dynamique et simple possible, voici les éléments à connaitre: Des liens d’aide Zone de dépôt de fichier en Drag & Drop ou click Liste des fichiers déjà déposés Information sur les types de variables Informations sur les lignes traitées Suppression des fichiers
  8. 8. Webinar #oncrawlwebinar Bonne pratique Dans l’interface précédente, vous devez vérifier que les champs ont bien été intégrés avec le bon type de variable Pour ce faire lorsque le fichier est traité (en quelques secondes rassurez-vous), vous pouvez cliquer sur la ligne correspondante pour voir apparaitre le bloc d’information Vérifier les types des champs avant de lancer le crawl Une donnée numérique ne sera pas exploitable si elle a été ingérée en tant que String
  9. 9. Webinar #oncrawlwebinar L’interface de Data Ingestion Lors du setup de votre crawl avec ingestion de données, cochez la case "Activer l'ingestion de données" Il vous suffit ensuite de choisir les fichiers à utiliser pour ce crawl et lancer le crawl A la fin du crawl, les données ingérées sont fusionnées sur le champ URL
  10. 10. Webinar #oncrawlwebinar Informations importantes Nos spécifications impliquent de vérifier certains points clés : • Le fichier peut être formaté en CSV ou JSON, dans une archive ZIP • Vous devez télécharger un fichier ZIP contenant un ou plusieurs fichiers CSV JSON Si vous fournissez plusieurs fichiers dans une archive, respecter les règles suivantes : • Tous les fichiers doivent avoir le même format : tous les CSV ou JSON • Tous les fichiers doivent avoir le même ensemble de champs Le contenu de chaque fichier doit respecter les règles suivantes : • La première ligne doit contenir le nom des champs sans caractères spéciaux ni espaces • Le fichier doit être encodé en UTF-8 si vous devez traiter des caractères non ASCII en valeurs • Vous pouvez fournir jusqu' à 30 champs par fichier • Leur nom doit être dans la plage [a-zA-Z0-9_-] • Chaque ligne doit comporter moins de 1024 caractères • Les champs peuvent être de type String, Integer (double) ou Float
  11. 11. Webinar #oncrawlwebinar Informations importantes Format des nombres : • Utiliser un point pour séparer les décimales • N'utilisez pas de virgule dans les champs • Si vous avez des données éparses, il n'est pas obligatoire de fournir tous les champs pour les URL qui ne les ont pas • Si vous n'avez pas de données pour une URL, elle peut être absente du fichier • L'url complète (absolue) doit être fournie dans le champ URL ou url Il n’y a pas de limitations à l’import de données tierces, c’est à vous de créer ou exporter les données de vos outils (CRM, Google Search Console, Google Adwords, Google Adsence, SemRush, Insight Yooda, SearchMetrics…)
  12. 12. Webinar #oncrawlwebinar Utilisation des données Les données ingérées deviennent des champs OnCrawl à part entière, ce qui veut dire que vous pouvez : • Les utiliser pour segmenter vos pages • Les utiliser dans des filtres du Data Explorer • Ajouter les colonnes au Data Explorer et les exporter Tout est dynamique et instantanément disponible
  13. 13. Webinar #oncrawlwebinar Les segmentations sur le Data Ingestion Exemple de segmentations GSC : GSC positions GSC Impressions GSC CTR http://textup.fr/246408sr http://textup.fr/246407FShttp://textup.fr/246409Zj
  14. 14. Webinar #oncrawlwebinar Uses Cases: #1 les données de insight Analyser le nombre d’expressions qui rankent vs le nombre de mots dans les pages En créant une segmentation basée sur l’export du nombre d’expression par « pages positionnées » vous pouvez comprendre quels sont les pages à travailler en contenu Moins une page a de contenu moins elle se positionne sur un grand nombre d’expressions CQFD
  15. 15. Webinar #oncrawlwebinar Uses Cases: #2 les données de Adwords Les données Adwords ingérées permettent de coupler vos statistiques de coût et performances d’annonce avec les métriques OnCrawl Ces données peuvent être consultées dans le Data Explorer et/ou exportées
  16. 16. Webinar #oncrawlwebinar Uses Cases: #3 les données de votre CRM En donnant un score d’importance pour votre business à vos URLs Vous pouvez vérifier si elles sont correctement maillées dans l’architecture et reçoivent le bon InRank Plus une page est importante pour votre ROI, plus elle doit être maillée et populaire dans le site
  17. 17. Webinar #oncrawlwebinar Uses Cases: #4 les données GSC de domaines référents Analyser l’export du nombre de domaines référents Permet de comprendre quelles pages reçoivent du Page Rank et ainsi maximiser les liens qui sortent de ces pages pour diffuser la popularité dans le site
  18. 18. Webinar #oncrawlwebinar Uses Cases: #5 les données GSC Analyser la profondeur ou le InRank des pages vs leur position, le CTR ou les impressions En créant une segmentation basée sur l’export des données par page dans GSC Vous pouvez analyser les pages avec les meilleures performances et déduire quelles sont les bonnes valeurs des métriques pour maximiser leur SEO
  19. 19. Webinar #oncrawlwebinar Uses Cases: #5bis les données GSC En utilisant les rapports d’analyses croisées Logs ou GA Vous pouvez mettre en relation les performances des pages, leur taux de rebond ou leur activité de crawl en fonction des données GSC RankBrain prend en compte à la fois le taux de rebond et le CTR, vous avez maintenant un moyen de connaitre les pages à surveiller et améliorer
  20. 20. Webinar #oncrawlwebinar Vous l’aurez compris, OnCrawl Data Ingestion est votre meilleur allier pour obtenir une vue exhaustive de vos performances search OnCrawl Data Ingestion est disponible à partir d’un plan Business. Envoyez-nous un message via le chat ou par mail pour activer cette fonctionnalité ou pour toutes autres questions.
  21. 21. Webinar #oncrawlwebinar Retrouvez-nous bientôt SEOCAMP’us Paris 22-23 mars 2018 Petit Déjeuner avec Open Linking Annecy 27 février 2018
  22. 22. MERCI ! - erle@oncrawl.com Follow us : @Oncrawl

×