Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Onpage SEO mit Prozessen und Strukturen effizient organisieren

923 views

Published on

SEOKomm Vortrag von unserem Stefan Keil. Es geht um die effiziente Organisation von Onpage SEO mithilfe von Prozessen und Strukturen.

Published in: Business

Onpage SEO mit Prozessen und Strukturen effizient organisieren

  1. 1. Onpage SEO mit Prozessen und Strukturen effizient organisieren Stefan Keil 17.11.2017
  2. 2. ✉ info@gettraction.de Standort Berlin Wielandstraße 9, 12159 Berlin ☎ 030 / 85 75 74 67 ✉ berlin@gettraction.de Standort Frankfurt Myliusstraße 14, 60323 Frankfurt a.M. ✉ frankfurt@gettraction.de
  3. 3. SEO-Prozesse: viele kleine Teiltätigkeiten Auslöser/Trigger Verantwortlicher Ergebnis / Maßnahme Ereignis: Worst-Case ist Performanceverlust, im besten Fall, nur eine E-Mail vs. turnus: regelmäßige Betrachung und ggf. Analyse Immer ein SEO: Technisch, Redaktion,… Anpassungen an: - Content - IT - Informationsarchitektur Tools und Werkzeug Checklisten, Crawler, Tools, Dokumentationen
  4. 4. Der SEO-Prozess im groben Überblick IT-SEO Informations- architektur Zielgruppe und Angebote Nachfragesituation (Keyword-Analyse) Wettbewerbsanalyse (Wer wird gefunden? Was wird angeboten? Angebotsdefinition Domain & URL Management Website Architecture (Duplicate Content) Geschwindigkeit / Ladezeit HTML-Optimierung IT-Flexibilität Feeds & Sitemaps Strukturierte Daten (schema.org) Mobile Optimierung Aufbau nachfrageorientierte Informationsarchitektur Place of Information Information Scent Siloing Verlinkungsziele pro Seitentyp Inhaltliche Erschließung und Vernetzung Visualisierung & Funktionale Wireframes Redaktionsplanung SEO im Redaktionsprozess Bestandsoptimierung und Content Maintenance Ausbau und Pflege vs. Neuerstellung Cornerstone-Inhalte und Republishing Zieldefinition Outreach Content Planung & Erstellung Bedeutung von Links Optimierung bestehender Linkprofile Identifikation von Linkopportunitäten Social Media Optimization Linkbaits Controlling und Forecast Suchanfragen (offene Potenziale? Erreicht der Nutzer die Seiten am richtigen Ort?) Webanalyse (Quanitative Betrachtung, Trafficqualität, Nutzerverhalten) IT-Hygiene (Crawlen der Seite, IT-Fehler finden und beheben) Content- planung & - erstellung
  5. 5. Prozessthemen im Onpage-SEO Onpage-SEO Prozesse Weiterleitungen • Weiterleitungs- ketten 404 / 410 / soft-404 Doppelte Titles und Descriptions Aktualisierung der Inhalte Anpassung an das Suchverhalten Depublizieren und Löschen Ausrichtung Titles und Description Anpassung h1 Erfassung Suchmuster und Facetten Alerting-System Regelmäßiges Monitoring • IT • Content IT-SEO Informations- architektur Content Alerting & Monitoring
  6. 6. You know all the tasks and your priorities suck….
  7. 7. Kontext der Themen betrachten „Wann sollte meine IT mir Sorgen bereiten?“
  8. 8. Jedes Projekt ist anders – Relevanz und Impact nach Case ▪ Ca. 5.000 Seiten ▪ Shop- und Content- Bereich ▪ Wordpress und Magento ▪ Kurze Wege (3 Mann Online Abteilung) ▪ Entwicklung und Update nach Bedarf ▪ Ca. 800.000 Seiten ▪ 50-150 Artikel pro Tag ▪ Hoher Abstimmungsbedarf zwischen IT – Marketing und Redaktion ▪ 2 Wochen Sprints: SEO ein „kleiner“ Stakeholder von vielen ▪ Ca. 100.000 Seiten ▪ Shop- und Content eng vermischt ▪ Filialist: Hohe Abstimmung zwischen online und offline ▪ Online Marketing intern – IT extern ▪ 3 Wochen Sprints: SEO ein „kleiner“ Stakeholder von vielen Mittelstand Retailer Publisher ▪ Ca. 1.500.000 Seiten ▪ Verzeichnisse oder Kleinanzeigen ▪ UGC – Anzeigen oder Detailseiten und fixe Kategorie ▪ Hohe Abstimmung zwischen IT und Marketing ▪ externe Texter für SEO ▪ 2 Wochen Sprints Index-Riese
  9. 9. ▪ Jedes Setup birgt eigene Risiken – große und komplexe Systeme mit verteiltem Arbeiten sind z.B. fehleranfälliger Wo liegen die Wachstumshebel und Risiken? ▪ Wie häufig sollte ich den Prozess anstoßen? ▪ Jeder Prozess behandelt hier ein Problem oder eine Chance – wie groß sind die Auswirkungen wenn es eintritt? Risiko Auswirkung Monitoring / Frequenz Mittelstand Retailer Publisher Index-Riese Relevanz Auslöser / Trigger: Ereignis vs. Turnus Relevanz
  10. 10. 1.4k seite n oder so :O Grundoptimierung muss vorhanden sein Und noch eine Anmerkung…
  11. 11. IT-SEO Prozesse zur Sicherung der Basis
  12. 12. Ziel: Nutzbarkeit und Crawlbarkeit erhalten! Nutzung und NutzbarkeitCrawling und Crawlbudget ▪ „Taking crawl rate and crawl demand together we define crawl budget as the number of URLs Googlebot can and wants to crawl. “ ▪ Crawl rate limit: ▪ „ … limits the maximum fetching rate for a given site” ▪ Crawl demand: ▪ „… if there's no demand from indexing, there will be low activity from Googlebot.” ▪ Einstiege auf Fehlerseite ▪ Intern verlinkte Fehlerseiten ▪ Verzögerungen im Laden der Seite durch (interne) Weiterleitungen und Weiterleitungsketten ▪ Einstieg auf Seitenfragmenten (keine weitere Aktion durchführbar) Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
  13. 13. Kritische Stolpersteine in der Crawlability ▪ We found that the low-value-add URLs fall into these categories, in order of significance: ▪ Faceted navigation and session identifiers ▪ On-site duplicate content ▪ Soft error pages ▪ Hacked pages ▪ Infinite spaces and proxies ▪ Low quality and spam content Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html Soft 404 Status 200, „index, follow“
  14. 14. Nutzern ermöglichen, meine Seite sinnvoll zu nutzen Mobile to Responsive Umzug m.domain.de 45 ms www.domain.de/ page?id=12 81 ms www.domain.de/ sprechende-url 166 ms 302 301 81 ms (28%) unnötige Ladezeit
  15. 15. „klassische IT-Fehler“ interne und externe Fehlersichten Tools (intern) Tools (extern) Weiterleitungen Fehlerseiten Doppelte Metaangaben Doppelte H1 Und viele mehr… Alles was crawlt…. Achtung: Problemseiten müssen intern Verlinkt sein! Und andere Webanalyse-Tools
  16. 16. Redirect(-ketten) identifizieren und abbauen ▪ Crawlbudget schonen ▪ Ladezeit (vor allem mobil) nicht unnötig erhöhen Warum? 1. Regelmäßige Crawls durchführen 2. Redirects identifizieren a. Priorisierung nach Häufigkeit der internen Verlinkung b. Templatebasierte Verlinkungen (Seitenweit u.ä.) zuerst! 3. Automatische Verlinkungen korrigieren lassen 4. „Redaktionelle Fehler“ korrigieren und Redakteure sensibilisieren! Redirect Chains mit dem Screaming Frog Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  17. 17. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen ▪ Schlechte Nutzererfahrung ▪ Konversionskiller ▪ Crawlbudget besonders bei internen Fehlern stark beansprucht ▪ Seitenhygiene Warum?Intern verlinkt Externe Meldung ▪ Google Analytics / Webanalyse ▪ Google Search Console ▪ Crawler ▪ Google Analytics / Webanalyse ▪ Google Search Console 1. Monitoring (GSC) / Regelmäßige Crawls durchführen 2. Fehlerseiten identifizieren a. Priorisierung nach Häufigkeit der internen Verlinkung b. Templatebasierte Verlinkungen (Seitenweit u.ä.) zuerst! 3. Automatische Verlinkungen korrigieren lassen 4. „Redaktionelle Fehler“ korrigieren und Redakteure sensibilisieren! Mittelstand Retailer Publisher Index-Riese Relevanz Turnus oder Event
  18. 18. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen ▪ Ab einer gewissen Fehlermenge ist die Fehleranalyse und Fehlersichtung nur noch sehr schwer möglich. ▪ Detailliertes Monitoring (Verzeichnisebene) der Fehler laut GSC hilft für einen groben Überblick. ▪ Relevanz beachten: ▪ 4.000 Fehler als „stabiles Grundniveau“ ▪ 200 neue Fehler ▪ Fehleranalyse mit „schlechter Sicht“ aufwändig ▪ Wirkung gering ▪ Warten bis eröffnete Tickets bearbeitet wurden
  19. 19. Nicht jeder 404er ist schlecht! Die echten Fehler finden Seiten löschen ist erlaubt. Wobei bei einer dauerhaften Löschung der Statuscode 410 vorzuziehen ist. Gelöschte Inhalte sollten aber nicht mehr verlinkt sein. Arbeitsschritte: ▪ Angeblichen 4XXer prüfen, ob er auch 4XX ist ▪ 4XXer klicken um Pop-Up der verlinkten Seiten zu bekommen ▪ Prüfen, ob die verlinken Seiten noch erreichbar sind ▪ Prüfen, ob die Verlinkung noch vorhanden ist ToDos: ▪ Intern: Links entfernen oder auf neues Ziel setzen ▪ Extern: Wenn guter Link, Zielseite weiterleiten   
  20. 20. Nicht jeder 404er ist schlecht! Die echten Fehler finden Das will natürlich niemand per Hand machen, also bemühen wir R: ▪ Prüft, ob 4XXer noch 4XXer ist. ▪ Prüft, ob die linkgebenden Seiten noch vorhanden sind. ▪ Prüft, ob die Links auf den linkgebenden Seiten noch vorhanden sind. ▪ Erzeugt eine Excel-Datei mit den wirklich vorhandenen 404ern sowie den echten linkgebenden URLs ▪ Alle anderen URLs werden als „behoben“ an die GSC gemeldet.
  21. 21. 404-Fehler prüfen und entfernen: Das Script zum Download https://www.gettraction.de/blog/gsc- 404er-mit-r-automatisert-pruefen/
  22. 22. GSC-Report: doppelte Titles und Descriptions identifizieren ▪ Etwas versteckter Bericht in der Google Search Console. ▪ Vorteil: findet Fehler, die nicht intern verlinkt sind ▪ Nachteil: Bericht ist oft veraltet ▪ Seiten sind bereits kanonisiert ▪ Seiten sind auf „noindex, follow“ ▪ Seiten bereits 404/410 ▪ Seiten werden via 301 weitergeleitet ▪ Explodiert oft bei einem Relaunch oder Umstrukturierungen Beispiel- URLs
  23. 23. Doppelte Titles und Descriptions identifizieren ▪ Zeigen Duplicate Content Probleme an ▪ Eindeutigkeit von Seiten gewährleisten ▪ Nutzer wissen nicht welcher Treffer relevant ist ▪ Titel hat Rankingrelevanz Warum? Sprachverzeichnisse Hosts Trailing-Slash Sprechende vs. Nicht sprechende URLs ▪ http://www.domain.de/de-de/ ▪ http:// www.domain.de/en/ ▪ http://www.domain.de/ ▪ https://www.domain.de/ ▪ https://www.domain.de/produkte/ ▪ https://www.domain.de/produkte ▪ https://www.domain.de/produkte-19/ ▪ https://www.domain.de/?id=19 Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  24. 24. GSC-Report: doppelte Titles und Descriptions ▪ Das will natürlich niemand per Hand machen, also bemühen wir Knime: ▪ Einlesen des GSC-Exports ▪ Transponieren der URLs ▪ Abgleich mit Screaming Frog Crawl ▪ Filterung auf die relevanten URLs ▪ Antworten die URL mit 200 OK? ▪ Sind die URLs indexierbar? ▪ Canonical Tag ▪ Robot-meta ▪ Robots.txt ▪ Fehler prüfen und Anforderungen an die IT stellen! Die echten Fehler finden
  25. 25. Zusammenfassung: Glücklicher Crawler – freudiger Nutzer Nutzbarkeit erhöht Conversionskiller entfernt Erwartungskonformität erhöht Crawling optimiert Unnötige Ladezeit vermieden
  26. 26. Informations- architektur Nutzer und Seite zusammen- zubringen
  27. 27. Nutzer und Inhalte zusammenführen Place of Information (Wo) Information Scent (Wohin) Frage: ▪ Wo bin ich? ▪ Bin ich hier richtig? Passende Suchanfrage auf der Seite hilft Nutzern und Suchmaschinen Anforderung: ▪ Suchanfrage in Titel (SERP) ▪ Suchanfrage in die Überschrift ▪ Überschrift entsprechend groß Frage: ▪ Wo sind mehr relevante Inhalte? ▪ Wie weit sind diese entfernt Nutzerzentrierte explizite Sprache unterstützt eine schnelle Orientierung Anforderung: ▪ Einfache & verständliche Navigation ▪ Relevante Inhalte schnell erreichbar Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur. Nur die Nutzer, die diese Fragen für sich beantworten können, können die gewünschten Informationen oder Produkte finden.
  28. 28. Anpassung der Titles und Descriptions ▪ Erwartungskonformität steigern ▪ Nutzern Relevanz signalisieren ▪ Klickattraktivität steigern ▪ Änderungen im Anfrageverhalten und im Informationsbedarf erkennen und bedienen Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  29. 29. Anpassung der Überschrift(en) ▪ Relevanz für Suchende steigern. ▪ Erstes Prüfen der Seite – Skimming und Scanning erffordert Beweise. ▪ „Bin ich hier richtig?“ Ja! Warum?Skimming Scanning Lesen Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  30. 30. Dimensionen und Facetten erkennen ▪ Suggests zu Thema Kiten/Kitensurfen ▪ Welche Begriffe werden in Kombination mit ▪ „kitesurfen“ ▪ „Kiten“ ▪ „landkiten“ ▪ „Kiteurlaub“ gesucht? ▪ Erkennen von Suchdimensionen ▪ Ort ▪ Zeit ▪ Kitegröße ▪ Einstiegsseiten schaffen!
  31. 31. Effizientes Analysieren mit Anfragesegmenten (GSC) ▪ Metriken aus der Google Search Console nach Anfragemuster aufteilen und betrachten. ▪ Herangehensweisen: ▪ Alle bekannten Muster ausschließen – was bleibt übrig? ▪ Gibt es in den einzelnen Muster „Subthemen“? ▪ Kommen die Nutzer auf der passenden Seite raus? Produktdetailseite? Kategorieseiten? ▪ Nein? Fehlen vielleicht die passenden Elemente auf den Seitentypen? ▪ Ist eine Facette neu hinzugekommen? ▪ Lohnt sich vielleicht eine neue Kategorie? Produkte nach Eigenschaft „xy“? Größe Material Hersteller 90x200 90x200 100x200 180x200 … Holz Metall Leder … Marke 1 Marke 2 Marke 3 Anfragemuster nach Klicks und Impressionen betrachten Beispiel Betten
  32. 32. Prüfung auf neue Suchmuster und Suchverhalten ▪ Nutzer an die passende Stelle des Angebots leiten ▪ Potentiale zu neuen Suchmuster erschließen (passendere LP in der Regel bessere Rankings!) Warum? Header H1: Seitenthema H2 Subaspekt 1 Sprung- marken Marginal- spalte H2 Subaspekt 2 H2 Subaspekt 3 H2 Subaspekt4 <Verlinkungen zu verwandten Themen> Gesamtstruktur Seitenstruktur Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  33. 33. Content Contentpflege- prozesse im SEO
  34. 34. ▪ Entwicklung einer News- SEO Strategie ▪ Aufbauend auf der thematischen Relevanz, die Google bereits zugewiesen hat ▪ Gezielte Optimierung auf News-Boxen im Rahmen der redaktionelle Arbeit ▪ News-Boxen besetzen ▪ Bestehende Rankings verlängern Content SEO: Lebenszyklus beachen! ▪ Evergreen-Inhalte identifizieren und gezielt ausbauen ▪ Content-Pflege in den Workflow integrieren ▪ Content-Ausbau zu Themenspecials ▪ Ausbau der Informationsarchitektur für Evergreen-Content wie Ratgeber, Guides etc. News-SEO Evergreen-SEO Ratgeber Artikel 1 Artikel 2 Ratgeber: Ca. 79 % SEO-Traffic Artikel: Ca. 35 % SEO-Traffic
  35. 35. Content altert 0 10 20 30 40 50 60 Beispiel Rankingentwicklung
  36. 36. Content Refresh: Überalterung vermeiden ▪ Aktualität für den Nutzer gewährleisten ▪ Schleichender Ranking und Trafficverlust ▪ Content Maintenance Warum?Suchanfrage / Landingpage Klicks Impressionen Ranking Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  37. 37. Inhalte an das Suchverhalten anpassen ▪ Bei Initialerstellung Suchverhalten nicht ganz klar oder es ändert sich ▪ Änderung Suchverhalten ▪ Subthemen erst eindeutig und sichtbar mit eigenen Daten Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus Erhebung Nachfrage AdWords oder Keyword-Tools
  38. 38. Inhalte strukturiert depublizieren! Sicht nicht verlieren! Soft 404 wegen unspezifischer Redirects
  39. 39. Effizientes löschen und depublizieren ▪ Inhalte werden nicht mehr benötigt und sollen möglichst schnell aus dem Index verschwinden ▪ Positive Signale mitnehmen ▪ Sackgassen vermeiden ▪ Freie Sicht behalten Warum? 1. Relevanz Prüfen a. Einstiege b. Links c. Seitenaufrufe 2. Redirect vs. 410 „Gone“ a. Fallentscheidung pro URL 3. Einrichtung der Redirects 4. Entfernen via 410 5. Prüfung ob noch interne Verlinkungen bestehen 6. Erstellung einer 410-Sitemap 7. Via GSC Einreichen 8. Regelmäßige Fehler prüfen und abhaken Mittelstand Retailer Publisher Index-Riese Relevanz Event und Turnus
  40. 40. Alerting und Monitoring- Prozesse im SEO
  41. 41. Warum Alerting und Monitoring? Being happy because our last deployment went perfectly!
  42. 42. Alerts: Frühwarnsystem Agile Entwicklung erfordert agiles Fehlermanagement und eine entsprechende Fehlerkultur. Durch stetige Überwachung den SEO- Erfolg sichern.
  43. 43. SEO als Teil der Qualitätssicherung ▪ Risikominimierung durch gefundene Fehler während der Entwicklung. ▪ Fehler werden frühzeitig erkannt und haben dadurch wenig bis gar keinen Impact auf die organische Leistung. ▪ Bugs bleiben Bugs und werden zum teuren Changerequest. ▪ Plattformqualität steigt, da Nutzungsprobleme schnell korrigiert werden können! Warum? https://www.gettraction.de/blog /seo-alerting-mit-testomato/ Mittelstand Retailer Publisher Index-Riese Relevanz Event
  44. 44. Google Analytics für „Totalsausfälle“ nutzen Traffic-Beobachtung via Webanalyse • Traffic-Einbrüche • Umsatzausfall • Aufrufe 404-Fehlerseiten • … Mehr? z.B. https://www.zedwoo.de/google-analytics-alerts/ https://www.gandke.de/blog/google-analytics-alerts/ http://www.termfrequenz.de/podcast/beyond- pageviews-podcast/bp-2-1-google-analytics-alerts/
  45. 45. Granulares Setup - Beispiele für Seitentypen und Abwandlungen Startseite Ressort Seitentypen Subressort Artikel Premiumartikel Themenseite Video Video-Ressorts Autorenseite Infografiken Suche Paginierung Filter SEO spezifische Dokumente Robots.txt Index-Sitemap Sitemaps News-Sitemap (Seitenweite) Parameter Usertracking Aktionstracking Partner Kurz-URLs Partnerangebote (auf Hauptdomain) Bugs & weiteres 410 301 404 Wiederholung Seitentypen? Canonicals
  46. 46. Segmente mit spezifischen Prüfmerkmalen belegen ▪ Nach der Segmentierung einer Webseite nach Inhalts- und Template Bereichen, kann eine Auswahl an „Stellvertreterseiten“ getroffen werden, um erfolgskritische SEO- Anforderungen permanent zu überprüfen. Beispielsweise: ▪ Indexierungsanweisungen ▪ Muster für Titles und Descriptions ▪ Überschriften ▪ (SEO-)Textelemente ▪ Navigationselemente ▪ Schema.org Auszeichnung ▪ Href-lang Implementierung ▪ Sollte einer dieser Anforderungen verloren gehen (fehlerhaftes Deployment o.ä.), können sofort Gegenmaßnahmen ergriffen werden. Dies ist dringend notwendig für einen dauerhaften Erfolg im SEO. Beispiel Testomato
  47. 47. Problem: Regeln können schwer überprüft werden ▪ Beispiel: ▪ Kategorien mit weniger als 5 Artikeln stehen auf noindex ▪ Href-lang nur implementiert, wenn Seite einen selbstreferenzierenden Canonial hat ▪ Slug eines Titels verkürzt sich, wenn Produktnamen eine bestimmte Länge haben ▪ Etc. ▪ Und natürliche alle Prüfungen aus dem Alerting! Im Fall von Abweichung: ▪ Direkt Ticket an IT zur Fehlerbehebung ▪ Entweder an Betrieb oder an Alerting- Ansprechpartner in der IT Lösung: Audisto Monitoring https://audisto.com/contacts/checks/1
  48. 48. Monitoring: Trends frühzeitig erkennen Operative Steuerung und frühzeitige Fehlererkennung.
  49. 49. Operative Steuerung für Content und Informationsarchitektur ▪ Regelmäßige Sichtung von Hygiene und Qualitätsfaktoren des Produkts. ▪ Identifikation von Trendthemen und kurzfristigen Traffic-Quellen. ▪ Stark operativ einsetzbar mit direkter Ableitung von operativen Maßnahmen für Content, Informationsarchitektur und IT- Hygiene. ▪ Ausbau von Quickwins und Eventgetriebenen Themen, die sich nicht immer redaktionell planen lassen. Warum? Mittelstand Retailer Publisher Index-Riese Relevanz Turnus
  50. 50. Wöchentliches Monitoring der Akquisition und Fehlerentwicklung Akquise und Qualität: • Sitzungen • Absprungrate Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr SERP-Leistung: • Klicks und Impressionen • Absprungrate Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr Top Suchphrasen (brand / nonbrand) • Impressionen • Klicks • CTR • Position Delta zur Vorwoche Top URLs (brand / nonbrand) • Impressionen • Klicks • CTR • Position Delta zur Vorwoche Sichtbarkeit und Rankings: • Sichtbarkeit nach Sistrix desktop/mobile • Anzahl Top 100 / Top 10 Rankings nach Sistrix Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • 404, 500, soft404 • Anzahl indexierte Seite Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • Doppelte Titles und Descriptions • Anzahl href-Tags und hreflang-Fehler Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr IT-Fehler: • Anzahl schema.org-Elemente • Anzahl schema.org-Fehler • Anzahl Fehler auf mobilen Seiten Im zeitlichen Verlauf – zur Vorwoche – zur gleichen Woche im letzten Jahr Akquisition Sichtbarkeit und IT-Fehler
  51. 51. Me: Wait – his outline said he would give us tools and processes to reduce efforts… Inner me: DISRUPT him NOW!
  52. 52. Prozess sitzt. Arbeit läuft. SEO wird dennoch nicht informiert…
  53. 53. Es bleibt nur Backup: Crawlen, suchen, vergleichen… + Sistrix Optimizer (Ende Oktober) https://www.sistrix.de/changelog/webseitenaenderungen-im-optimizer-nachvollziehen/ Filter bei Ryte speichern • Änderungen an Meta Index • Veränderung der Anzahl externer Links • Andere Meta Descriptions • Veränderter Canonical-Tag • Änderungen im Quelltext • H1-Überschrift hat sich geändert • Veränderungen der Anzahl interner Links • Anderer Status-Code • Veränderter Title-Tag • Neu gefundene URLs • Nicht mehr gefundene URLs • Deutlich andere Dateigröße • Ladezeiten haben sich deutlich geändert • Verändertes Charset • Anderer Content Type • Veränderte Klickanzahl
  54. 54. • „Verwalten“ • Bekannte Fehler stören bei der Sichtung neuer Probleme & verhindern das aktive Steuern • Maßnahmen „sehen“ und auch bewerten können • Erfolg • Misserfolg / Korrektur Normaler Arbeitsablauf: Initialanalyse und Pflege Initialanalyse Betreuung und Pflege AbschlussInitialisierung • Vollständige Erstaufnahme • Evaluation aller Themenfelder und Bereich auf Risiken und Chancen • Erschließung der Seitenstruktur • Fehler kategorisieren und kontextualisieren • Anforderungen an die IT • Anforderungen an die Redaktion • Schätzungen, Workflows entwickeln, SEO- Roadmap aufbauen Vollständigkeit Änderungen
  55. 55. Differenzen verschiedener Crawls schnell finden! Abgleich regelmäßiger Crawls der selben Domain mit dem jeweiligen Crawl davor nach: ▪ URLs, die im neuen Crawl nicht mehr vorhanden sind. ▪ URLs, die im neuen Crawl erstmalig vorhanden sind. ▪ URLs deren Canonical-Anweisung sich geändert hat ▪ URLs deren Titel / Descriptions sich geändert haben ▪ URLs deren Indexierungsanweisungen sich geändert haben ▪ URLs deren Statuscode sich geändert haben ▪ Etc. Im Fall von Regelverletzungen: ▪ Direkt Ticket an IT zur Fehlerbehebung ▪ Entweder an Betrieb oder an Alerting- Ansprechpartner in der IT Delta-Abgleich
  56. 56. …ich weiß, was du letzte Woche getan hast… ▪ Neue URLs ▪ Entfallene URLs ▪ Änderungen: ▪ Status-Code ▪ Canonical-Link ▪ Meta-Robots ▪ H1 ▪ Title ▪ Description ▪ Content-Type ▪ Klicktiefe ▪ Dateigröße ▪ Antwortzeit Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29 Entfallene URLs neue URLs Gemeinsame URLs
  57. 57. Crawlabgleich: Screaming Frog & R: Workflow und Link Details und Download unter: https://www.gettraction.de/seokomm2017
  58. 58. Zusammenfassung und Überblick der Relevanz Mittelstand Retailer Publisher Index-Riese IT Redirect(ketten) abbauen IT Fehlerseiten identifizieren und ggf. abbauen IT Doppelte Titles und Descriptions IA Anpassungen Title und Descriptions IA Anpassungen Überschriften (h1) IA Prüfung auf neue Suchmuster CO Content Refresh CO Content Anpassen CO Inhalte strukturiert depublizieren AL Alerting-Prozess MO Monitoring-Prozess
  59. 59. Sie wollen die Präsentation? ▪ Schreiben Sie jetzt eine Mail an unseren Mitarbeiter, Michael Ludermann: ▪ ml@gettraction.de ▪ Betreff: SEOkomm Präsentation ▪ Und sie bekommen umgehend die Präsentation zugesendet! Kein Problem:
  60. 60. …Fragen? Dann kontaktieren sie uns! Kontakt: www.gettraction.de FB: https://www.facebook.com/gettraction.de/ Twitter: https://twitter.com/gettraction_om Mail Stefan Keil: sk@gettraction.de
  61. 61. Bildnachweise ▪ Folie 10: taviphoto/Shutterstock.com ▪ Folie 11: bigstockphoto.com / Scanrail ▪ Folie 18: bigstockphoto.com / Kirisa99 ▪ Folie 25: bigstockphoto.com / marcelmooij ▪ Folie 26: bigstockphoto.com / Ivelin Radkov ▪ Folie 28: bigstockphoto.com / Flynt ▪ Folie 33: bigstockphoto.com / Policas ▪ Folie 35: bigstockphoto.com / weerapat ▪ Folie 36: bigstockphoto.com / Thatsaphon Saengnarongrat ▪ Folie 41: bigstockphoto.com / Olivier Le Moal ▪ Folie 43: bigstockphoto.com / joegough ▪ Folie 50: bigstockphoto.com / tashatuvango

×