Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018

1,140 views

Published on

Meine Präsentation von der SEOkomm 2018 mit vielen Tipps und Empfehlungen rund um das Thema Logfile Analyse - inkl. Übersicht Marktübersicht der Tools, vielen Logfile Auditing Workflows, etc.

Published in: Technology

Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018

  1. 1. Bastian Grimm, Peak Ace AG | @basgr 20+ Tipps, um das Beste aus euren Logfiles herauszuholen Data-driven Technical SEO
  2. 2. Und warum sind Logfiles wichtig für eure SEO-Arbeit? Why should you care?
  3. 3. pa.ag@peakaceag3 Ich bin ja großer Fan diverser Crawling Tools, aber … Only access log files do show how a search engine’s crawler is behaving on your site; all crawling tools simply are trying to simulate their behavior!”
  4. 4. Ihr wollt wissen, welche Seiten Suchmaschinen priorisieren? Nur so wird klar, welchen URLs ihr besondere Aufmerksamkeit gönnen solltet. 1. Crawl-Prioritäten verstehen
  5. 5. Google könnte Crawling-Verhalten ändern oder die Frequenz reduzieren, wenn ihr permanent große Mengen an Fehlern produziert. 2. Crawling-Probleme verhindern
  6. 6. Ihr wollt Schwachstellen im Crawling (Hierarchie, interne Linkstruktur etc.) mit potenziell seitenübergreifenden Folgen identifizieren. 3. Globale Probleme verstehen
  7. 7. Ihr wollt sichergehen, dass Google alles Wichtige crawlt: vor allem ranking- relevante Inhalte, aber auch schnelles Auffinden von aktuellem Content. 4.Optimales Crawling ermöglichen
  8. 8. Ihr wollt sicherstellen, dass jegliche gewonnene Link Equity immer mit korrekten Links und/oder Redirects weitergegeben wird. 5. Korrekte Verlinkung sicherstellen
  9. 9. Denkt dran, Details hängen vom individuellen Setup ab! Die Charakteristiken eines Logfiles
  10. 10. … je nach Webserver (Apache, nginx, IIS etc.), Caching und jeweiliger Konfiguration. Versteht zuerst euer Setup! Inhalt & Struktur variieren …
  11. 11. pa.ag@peakaceag11 Wie sieht ein Logfile normalerweise aus? Server IP/Hostname1 Timestamp (Datum & Zeit)2 Methode (GET/POST/HEAD)3 Request URL4 HTTP Statuscode5 Größe in Bytes6 Referrer7 User Agent8 188.65.114.xxx [23/Nov/2018:02:00:00 -0100] /resources/whitepapers/seo-whitepaper/ HTTP/1.1" 200 512 "http://www.seokomm.at/" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" "GET
  12. 12. Logfile-Daten können einen auch schnell überfordern, weil man so viel mit ihnen machen kann. Bereitet also eure Fragen richtig vor! Ihr müsst die richtigen Fragen stellen!
  13. 13. pa.ag@peakaceag13 Logfile-Daten können z. B. von GA-Daten abweichen Logfiles sind serverseitige Informationen, Google Analytics verwendet clientseitigen Code. Da Daten aus verschiedenen Quellen stammen, können sie unterschiedlich sein! Auch die Konfiguration innerhalb Google Analytics führt zu Datenunterschieden gegenüber Logfiles – wie z. B. Filter!
  14. 14. Was ihr wissen müsst, wenn ihr nach Logfiles fragt: Häufig gestellte Fragen
  15. 15. Wir interessieren uns nur für Crawler wie Google und Bing; Nutzerdaten sind unnötig (Betriebssystem, Browser, Telefonnummer, Namen etc.) 1. Personenbezogene Daten in Logfiles
  16. 16. Wenn ihr woanders einen Cache-Server und/oder CDN betreibt, das Logs erstellt, brauchen wir diese Daten ebenfalls. 2. Logfiles an verschiedenen Orten
  17. 17. Es gibt verschiedenste Wege, das Thema anzugehen: Logfile Auditing Tools
  18. 18. pa.ag@peakaceag18 Eine Sache, die definitiv nicht klappen wird: Notepad!
  19. 19. pa.ag@peakaceag19 Do-it-yourself-Lösung basierend auf Excel Ihr müsstet Filter, Querverweise etc. manuell erstellen – das skaliert nicht wirklich!
  20. 20. pa.ag@peakaceag20 ScreamingFrog Log File Analyser Einsteigerfreundliches, desktopbasiertes Logfile Auditing mit vordefinierten Reports
  21. 21. Keine Freigabemöglichkeiten, manueller Up-& Download der Logfiles, generell problematisch bei größeren Dateien etc. Desktoplösungen mit Limitierungen
  22. 22. pa.ag@peakaceag22 Splunk Enterprise & Cloud: Large-scale Log Management Enterprise Tools wie Splunk bieten Funktionen, die weit über einfaches Logfile Monitoring hinausgehen. Image sources: https://www.splunk.com
  23. 23. pa.ag@peakaceag23 Der Elastic Stack (ELK): Elasticsearch, Logstash & Kibana Elasticsearch: Search & Analytics Engine, Logstash: Server-side Data Processing Pipeline, Kibana: Datenvisualisierung (Charts, Graphen etc.) – komplett Open Source! Image source: https://pa.ag/2JbFUhP
  24. 24. pa.ag24 Graylog, logrunner, logz.io, loggly, sumo logic, papertrail Besonders logrunner.io sowie logz.io mit starkem Fokus auf SEO-basiertem Auditing (vorgefertigte Reportings, nützliche Dashboards etc.)
  25. 25. Was gibt’s aktuell an neuen Tools? Have you already met ...?
  26. 26. pa.ag@peakaceag26 crawlOPTIMIZER: SaaS Logfile Auditing made in Vienna Viele nützliche Reports, die einen einfachen Einstieg in das Thema Logfiles ermöglichen: Mehr: https://www.crawloptimizer.com/
  27. 27. pa.ag@peakaceag27 crawlOPTIMIZER: SaaS Logfile Auditing made in Vienna BRPs (Business Relevant Pages) und dezidierte Auswertung dieser als Top-USP
  28. 28. pa.ag@peakaceag28 Ryte BotLogs: Crawler Tracking via Pixel/Snippet Ryte schreibt „eigene“ Logfiles, die ausschließlich Crawler-Zugriffe protokollieren. Der große Vorteil: Kein (manuelles) Herumhantieren mit (großen) Logfiles. Mehr: https://botlogs.ryte.com/
  29. 29. pa.ag@peakaceag29 Ryte BotLogs: Crawler Tracking via Pixel/Snippet Super hilfreiche Timeline zur Darstellung einzelner (Crawl-) Events im zeitlichen Verlauf, je nach User Agent und kategorisiert nach Priorität.
  30. 30. Up-/Downloads von Logfiles werden unnötig, einfache Freigabe- funktionen, Möglichkeit mit sehr großen Datenmengen zu arbeiten etc. Vorteil von SaaS: Echtzeit
  31. 31. Für einen leichten Einstieg: Trend Monitoring (im Zeitverlauf) & erste Erkenntnisse sammeln Let’s have a look at some data
  32. 32. pa.ag@peakaceag32 Einfachster Ansatz: Anomalien im Zeitverlauf erkennen Tipp: Deswegen ist es sinnvoll, eure Logfiles regelmäßig zu checken (z. B. wöchentlich). Das sieht erstmal ungewöhnlich aus; ideale Grundlage für weitere Nachforschungen.
  33. 33. pa.ag@peakaceag33 Crawl-Frequenz nach User Agent im zeitlichen Verlauf Das Verständnis von Mustern und Unregelmäßigkeiten kann sehr hilfreich sein – schaut euch das Crawl-Verhalten einzelner User-Agents immer auch im zeitlichen Verlauf an.
  34. 34. Sucht mit Logfiles nach Spambots oder Scrapern, um diese zu blockieren! Welche anderen „Bots“ besuchen euch?
  35. 35. pa.ag@peakaceag35 Nicht jeder ist das, was er zu sein scheint! Herausfinden, ob Googlebot wirklich Googlebot ist? Reverse DNS Lookup. Bingbot kann genauso verifiziert werden, hier wäre die Antwort: *.search.msn.com. Source: https://pa.ag/2JqOk8d
  36. 36. pa.ag@peakaceag36 Aktuelles Thema: Google MFI Switch Checkt, ob der Google-Smartphone- den Desktopbot (im Crawl-Volumen) überholt hat. Smartphonebot Crawl- Volumen immer noch niedriger als Desktop-Crawls
  37. 37. pa.ag@peakaceag37 Welche Seiten crawlt Googlebot am häufigsten? Überprüft zusätzlich, ob diese mit den wichtigsten Seiten eurer Domain übereinstimmen. Sind dies wirklich eure wertvollsten Landingpages?
  38. 38. pa.ag@peakaceag38 Übersicht des Crawl-Volumens & Statuscodes je Verzeichnis Ihr seht sofort, ob ihr Crawling-/Response-Probleme in einem Verzeichnis habt. Tipp: Regelmäßig prüfen für eine kontinuierliche Performance der Top-Verzeichnisse.
  39. 39. Auswertungen & entsprechende Maßnahmen: Was geht noch alles?
  40. 40. 1. Redirects
  41. 41. pa.ag@peakaceag41 Identifiziert „falsche“ Redirects: 302 / 303 / 307 / 308 Maßnahme: Anpassen auf 301 (außer Geo-Redirects); achtet auch auf Redirect-Ketten! Drill down to understand what’s in there
  42. 42. 2. Crawl-Fehler
  43. 43. pa.ag@peakaceag43 4xx Client Error: zu viele sind sicher kein positives Signal! Maßnahme: wiederherstellen (200), weiterleiten (301) oder vollständig entfernen (410)
  44. 44. pa.ag@peakaceag44 Googlebot kann sich nicht einloggen … (403: Forbidden) If it‘s linked, Google will try to crawl it – they are greedy!
  45. 45. pa.ag@peakaceag45 5xx Server Error: meist infrastrukturell bedingt Maßnahme: Genau beobachten und/oder mit der IT reden (Serververfügbarkeit etc.) Achtung: 503-Antworten können ggf. gewollt sein (geplante Wartungsarbeiten). Prüft mehrfach; was passiert bei erneutem Versuch?
  46. 46. 3. Crawl-Prioritäten
  47. 47. pa.ag@peakaceag47 Beste/schlechteste gecrawlte URLs & Ordner verstehen Maßnahme: zusätzliche interne Verlinkungen auf stark gecrawlten Seiten hinzufügen (Linkhubs), stärkere interne Verlinkung von wenig/schwach gecrawlten Seiten Kann für zusätzliche interne Verlinkungen verwendet werden (Discovery). Offensichtlich schwach, entweder irrelevant (entfernen) oder braucht mehr Aufmerksamkeit (mehr Links).
  48. 48. 4. Zuletzt gecrawlt
  49. 49. pa.ag@peakaceag49 Erkennt, ob (neue) URLs überhaupt gecrawlt wurden Maßnahme: Wenn relevante URLs noch gar nicht gecrawlt wurden, ist eure interne Verlinkung vermutlich zu schwach. Erwägt XML-Sitemaps, stärkere Verlinkung etc. Wenn das wichtige URLs sind, habt ihr möglicherweise ein Problem!
  50. 50. 5. Crawl Budget & Waste
  51. 51. pa.ag@peakaceag51 Diesen Tweet von John habt ihr alle gesehen? Source: https://pa.ag/2LUnt2R
  52. 52. pa.ag@peakaceag52 Wasting server resources on pages […] will drain crawl activity from pages that do actually have value, which may cause a significant delay in discovering great content on a site. Das sagt Googles Webmaster Central Blog dazu: Source: https://pa.ag/2HhsYoz
  53. 53. pa.ag@peakaceag53 Wenn ihr jemals mit solchen Domains zu tun hattet … Mit >30.000.000.000 crawlbaren URLs (durch Parameternutzung) richtig umzugehen, macht einen Unterschied in der organischen Performance – garantiert!
  54. 54. pa.ag@peakaceag54 Ähnlich wie zu sagen, alle Redirects seien gleich … … in diesem Fall haben wir nur die Weiterleitungen von 302/307 auf 301 umgestellt.
  55. 55. pa.ag55 URL-Parameter verursachen die meisten Probleme (Kombinierte) URL-Parameter erzeugen insbesondere bei großen Domains nicht selten Millionen von unnötigen URLs, die Googlebot (wenn einmal gefunden) fleißig crawlt.
  56. 56. pa.ag56 Verhalten der URL-Parameter im Zeitverlauf überwachen Seid bei neuen Parametern sowie bei deutlich erhöhtem Crawling von bereits bekannten Parametern auf der Hut:
  57. 57. pa.ag@peakaceag57 Überwacht weniger (ranking-) relevante Dateitypen Maßnahme: ggf. die Art der Integration / des Ladens dieser einzelnen Komponenten (bspw. XML-Fragmente) überdenken (keine eigene URL notwendig?)
  58. 58. Noch bessere Insights durch das Kombinieren mehrerer Quellen Verknüpfen von Crawl- & Logfile-Daten
  59. 59. pa.ag@peakaceag60 Gap-Analysen der Crawl-Quellen Unterschiede in den Quellen zu verstehen kann dabei helfen, unterschiedliches Verhalten nachzuvollziehen, z. B. Webcrawl vs. Sitemap – oder vs. Logfiles. URLs, die beim Webcrawl gefunden wurden, aber in keinem Logfile.
  60. 60. pa.ag@peakaceag61 Auffinden von versehentlichen noindex-Anweisungen Diese Produkt-URL wird oft gecrawlt, wurde aber versehentlich nicht indexierbar gemacht. Ein Abgleich der Crawl-Direktive mit dem Verhalten (Logfiles) half bei der Lösung.
  61. 61. pa.ag@peakaceag62 Nicht gecrawlte Seiten, die in der Sitemap vorhanden sind Diese Daten weisen auf zu wenig interne Links innerhalb der Seitenarchitektur hin. Verbessert eure Architektur und haltet auch eure XML-Sitemaps sauber! Klickt hier, um die jeweiligen URLs aufzurufen und zu untersuchen.
  62. 62. pa.ag@peakaceag63 Indexierbare Seiten, die nicht gecrawlt werden Ein guter Ausgangspunkt, um mit der Optimierung zu beginnen, die Indexierung/ Konsolidierung zu überdenken oder diese URLs vollständig zu löschen.
  63. 63. Hier ein paar weitere Reports: je nachdem was ihr vorhabt … Time for some more?
  64. 64. pa.ag@peakaceag65 Crawl-Frequenz nach Content-Typen im Zeitverlauf Das Crawling von JS/CSS-Dateien zu beobachten (z. B. nach Frontend/Template- Änderungen) kann helfen, die Verarbeitung durch Google zu verstehen.
  65. 65. pa.ag@peakaceag66 Analysiert Fehler nach Content-Typen gruppiert Vielleicht hat (nur) Google Probleme mit einer ganz bestimmten Art von Content? Kategorisiert z. B. eure 404er nach unterschiedlichen Dateitypen wie JS, CSS etc.
  66. 66. pa.ag@peakaceag67 Identifiziert URLs, die länger nicht gecrawlt wurden Fangt an, diese Seiten zu optimieren, wenn sie wirklich wichtig sind!
  67. 67. pa.ag@peakaceag68 Identifiziert (unbekannte) große URLs/Dateien Je nach Details der Logfiles, z. B. nach durchschnittlicher Bytegröße sortieren und für #webperf nutzen. Vielleicht ladet ihr Sachen ohne richtige Komprimierung? Vielleicht müsst ihr eure Bilder richtig optimieren?
  68. 68. pa.ag@peakaceag69 Integrate log file auditing into your regular SEO workflow; one-off audits are good for a start but it really becomes invaluable if you combine it with web crawl data and do it on an on-going basis.” Logfile Auditing ist kein Projekt, sondern ein Prozess!
  69. 69. pa.ag@peakaceag70 Kurz zusammengefasst ... Zum Nacharbeiten für die kommende Woche: 01 Keine One-fits-all- Lösung Logfilegröße, -menge & -verfügbarkeit sind ausschlaggebend für die Toolauswahl. 02 Vorbereitung ist alles Konkrete Fragestellungen helfen bei der effizienten Analyse. 03 Crawl-Daten only Seid präzise bei euren Anfragen (an die IT), ihr wollt nur wissen, was Suchmaschinen machen! 04 Reverse-DNS nutzen Nicht jeder Crawler ist, wer er vorgibt zu sein – vertraut nicht "blind“ auf den User Agent. 05 URL-Parameter sind nahezu immer das größte Problem (Kombinationen, Reihenfolgen, Konsistenz) – auditiert diese zuerst.
  70. 70. Oh yeah, there’s one more thing …
  71. 71. Ich möchte: keine IT involvieren, unbegrenzte Skalierbarkeit, flexible Berichte, mehrere (API-) Datenquellen und Nutzerfreundlichkeit! Es muss einen anderen Weg geben!
  72. 72. „Sicher, solange ihr uns bezahlt!“ „Can you integrate with our Google Data Studio reports?“
  73. 73. (Und jeder auf der #seokomm bekommt das als Geschenk, kostenlos!) Wir haben uns da was überlegt:
  74. 74. pa.ag75 Der aktuell genutzte Tool Stack (Wir haben es leider nicht mehr geschafft Searchmetrics & Majestic anzubinden) Logfiles Google Analytics Google Data Studio Google Search ConsoleInput Data Sources Data Processing Output Data DeepCrawl Google Big Query Google Data Prep Google Apps Script
  75. 75. Individuelle Reports, die auf eure Bedürfnisse zugeschnitten sind. Und wie sieht das Ergebnis aus?
  76. 76. pa.ag77 Crawl-Verhalten im zeitlichen Verlauf visualisieren Wird die Seite ausreichend und regelmäßig von allen relevanten Bots gecrawlt?
  77. 77. pa.ag78 Am häufigsten gecrawlte URLs und Dateien Welche Crawl Hubs könnten zur Verbesserung der internen Verlinkung genutzt werden?
  78. 78. Connect and conquer … Wie funktioniert das?
  79. 79. pa.ag80 Workflow I: Logfiles abrufen, IPs löschen & bereitstellen (A) Logfiles vom Server downloaden, (B) IP-Adressen löschen mit PowerShell, (C) Logfiles zu einer Datei zusammenfügen (D) und auf Google Cloud Storage hochladen. Weiterver- arbeitung Online Upload Download auf den PC B CA Logfiles Google Cloud Storage D große Datensätze speichern CMD / SED Logfiles in einer Datei zusammenführen PowerShell IP-Adressen löschen (DGSVO… und so!) vom Server, CDN, Cache, etc. PowerShell Windows: (Get-Content example.txt) -replace "(b[0-9]{1,3}.){3}[0-9]{1,3}", '0.0.0.0‘ -replace "(([a-zA-Z0-9]{1,4}|):){1,7}([a-zA-Z0-9]{1,4}|:)", '0:0:0:0:0:0:0:0' | Out-File example.txt CMD: cmd => cd desktop => cd logfiles => dir => copy * logfiles_all Linux: sed -i -E 's/(b[0-9]{1,3}.){3}[0-9]{1,3}b'/0.0.0.0/ temp.log /// sed -i -E 's/(([a-zA-Z0-9]{1,4}|):){1,7}([a-zA-Z0-9]{1,4}|:)b'/0:0:0:0:0:0:0:0/ temp.log
  80. 80. pa.ag81 Workflow II: Logfile-Daten zur Visualisierung bringen (1) Logfiles werden im Google Cloud Storage gespeichert, (6) in Dataprep verarbeitet, (7) nach BigQuery exportiert, (8) in Data Studio via BigQuery Connector visualisiert. 8 Google Data Studio Daten aller Quellen visualisieren Daten senden Daten abbildenImportieren Google Dataprep 6 Quellen bereinigen und verknüpfen 7 Google Big Query große Datensätze verarbeiten 1 Logfiles gespeichert in Google Cloud Storage
  81. 81. pa.ag82 Workflow III: Logfile-Daten weiter anreichern GA-, GSC- und DC-Daten werden über ihre APIs mithilfe von Google Apps Script importiert. GSC API v3 GA API v4 GA GSC Google Apps Script Daten aus APIs abrufen durch Definition von Metriken & Settings (z.B. Zeitspanne) via JS 2 3 65 DeepCrawl API 4
  82. 82. pa.ag83 Logfiles Workflow IV: Alles verknüpfen (& zukünftig noch mehr!) Datenquellen mithilfe von Dataprep verknüpfen. GSC-, GA- & DC-Daten senden Daten senden Google Apps Script 76 5 1 Searchmetrics Screaming FrogMajestic SEO in Kürze manuellin Kürze
  83. 83. Mitglieder des Supply-Chain Teams Tools und ihre Kernaufgaben
  84. 84. pa.ag85 #1 Logfile-Daten von Webservern, CDN, Cache etc. Wie oft crawlen Bots tatsächlich? Was crawlen sie und wann? Quelle: https://pa.ag/2zs9lcY ▪ Anzahl der Crawls/Anfragen pro Bot-Typ ▪ Identifizierung von Crawling-Mustern ▪ Fehler / Weiterleitungen ▪ 3xx ▪ 4xx ▪ 5xx Ziel: Verbesserung der Seitenarchitektur durch Analyse echter Bot-Crawling-Daten LogfilesGoogle Cloud Storage Als Textdatei importieren (IP-Adressen ausschließen!)
  85. 85. pa.ag 15TB (pro Datei), die in BigQuery verschoben werden sollen. Größe ist definitiv KEIN Problem
  86. 86. pa.ag nginx/Apache/etc. >> fluentd >> BigQuery Standalone files are messy, agreed.
  87. 87. pa.ag89 #2 Google Analytics API Ergänzt Reports um Verhaltensdaten und Page-Speed-Metriken der User. Google Analytics Reporting API v4 Ziel: Vergleich des Crawling-Verhaltens mit Benutzer- und Ladezeitdaten URL-basierte Daten zu wichtigen Engagement-Metriken: ▪ Sessions ▪ User ▪ Absprungrate ▪ Durchschn. Verweildauer ▪ Durchschn. Server Response Time ▪ Durchschn. Seitenladezeit ▪ …
  88. 88. pa.ag90 #3 Google Search Console API Performance-Daten der organischen Suche direkt von Google Ziel: Vergleich des Crawling-Verhaltens mit organischen Klickdaten & Abfrage gefundener Crawling-Fehler Organische Klickdaten: ▪ Klicks ▪ Impressions ▪ … URL-basierte Server-Response-Daten: ▪ Statuscode Google Search Console API v3
  89. 89. pa.ag91 #4 DeepCrawl API Website-Architektur, Statuscodes, Indexierungsdirektiven, etc. Ziel: Erfassen von Indexierungsdirektiven, Response Codes und vielem mehr DeepCrawl API
  90. 90. pa.ag92 #5 Google Apps Script I: GA API-Zugriff: benutzerdefiniert verschiedene Dimensionen und Metriken aus GA erfassen Quelle: https://pa.ag/2OWnjJa Ziel: Google-Analytics-Daten (über die API) an BigQuery senden Google Apps Script
  91. 91. pa.ag93 #5 Google Apps Script II: GSC API-Zugriff: JavaScript Code zum Abrufen von Crawl- und Suchanalysedaten der GSC Quelle: https://pa.ag/2OWnjJa Ziel: Daten aus der Google Search Console an BigQuery senden Google Apps Script
  92. 92. pa.ag94 #5 Google Apps Script III: DeepCrawl API-Zugriff: benutzerdefiniert verschiedene Daten/Direktiven aus DeepCrawl erfassen Quelle: https://pa.ag/2OWnjJa Ziel: DeepCrawl-Daten (über API) an BigQuery senden Google Apps Script
  93. 93. pa.ag95 #6 Google Cloud Dataprep I: Aufbereiten Schritt 1: Daten aufbereiten und kombinieren für die anschließende Visualisierung Quelle: https://pa.ag/2Q6rEde Ziel: Bereinigen und Transformieren der Daten Dataprep: „Excel on rocket fuel“ ▪ Großartiger RegEx Support ▪ Daten auswählen und automatisiert Vorschläge zur Verarbeitung erhalten ▪ Datenquellen verbinden durch z. B. Full Inner/Outer Join, Left/Right Join … Google Apps Script
  94. 94. pa.ag97 #6 Google Cloud Dataprep II: Verbinden (URL) Schritt 2: Daten mehrerer Quellen verbinden mit verschiedenen Verknüpfungsoptionen Quelle: https://pa.ag/2Q6rEde Ziel: Kombination von Daten aus Logfiles, GSC, GA & DeepCrawl Google Apps Script
  95. 95. pa.ag98 #6 Google Cloud Dataprep III: Workflows Kern des ganzen Prozesses: Quellen innerhalb verschachtelter Workflows verknüpfen Ziel: Kombination von Logfiles, GSC, GA und DeepCrawl innerhalb des Processing Flows Google Apps Script
  96. 96. pa.ag99 #7 Google Cloud BigQuery I: Tabellen erstellen Die BigQuery-Tabellenstruktur wird erstellt wie im Google Apps Script angegeben. Quelle: https://pa.ag/2QWtiPQ Ziel: Speichern von großen Datenmengen zum schnelleren Abrufen und Verarbeiten Google BigQuery
  97. 97. pa.ag100 #7 Google Cloud BigQuery II: Daten verfügbar machen Data Warehouse mit superschneller SQL-Abfrage für sehr große Tabellen Quelle: https://pa.ag/2QWtiPQ Möglichkeit: Abfrage der Daten vor der Visualisierung Google BigQuery
  98. 98. pa.ag101 #8 Google Data Studio: Visualisierung Letzter Schritt: In der Visualisierung läuft alles zusammen. Verwendet BigQuery Connectors, um Daten aus BigQuery-Tabellen in Google Data Studio zu laden. Quelle: https://pa.ag/2xLAyoV Ziel: Import und Visualisierung von Daten aus BigQuery Google Data Studio
  99. 99. pa.ag Here you go: Ein paar Beispiele?
  100. 100. pa.ag@peakaceag103
  101. 101. pa.ag@peakaceag104
  102. 102. pa.ag@peakaceag105
  103. 103. pa.ag@peakaceag106
  104. 104. pa.ag@peakaceag107
  105. 105. pa.ag@peakaceag108
  106. 106. pa.ag@peakaceag Really now, one last thing…
  107. 107. pa.ag@peakaceag110 We’re hiring! 30+ performance marketing jobs in Berlin! Come and say “hello” or apply via jobs.pa.ag. We look forward to talking to you! Always looking for talent! Check out jobs.pa.ag
  108. 108. pa.ag@peakaceag twitter.com/peakaceag facebook.com/peakaceag www.pa.ag ALWAYS LOOKING FOR TALENT! CHECK OUT JOBS.PA.AG WINNER Bastian Grimm bg@pa.ag Folien? Kein Problem: https://pa.ag/seok18logs Ihr wollt unser Logfile-Setup kostenlos(!) nutzen? e-mail us > seokomm@pa.ag

×