10 grössten SEO Fehler
Upcoming SlideShare
Loading in...5
×
 

10 grössten SEO Fehler

on

  • 2,099 views

 

Statistics

Views

Total Views
2,099
Slideshare-icon Views on SlideShare
2,082
Embed Views
17

Actions

Likes
0
Downloads
34
Comments
0

2 Embeds 17

https://confluence.myphotobook.de 16
http://www.linkedin.com 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    10 grössten SEO Fehler 10 grössten SEO Fehler Presentation Transcript

    • DIE 10 GRÖßTEN SEO FEHLER Lars Heinemann
    • Zur Person Lars Heinemann SEO & SEM Manager myphotobook.de
    • Umfrage
      • Umfrage auf seo-book.de mit Erik Kubitz durchgeführt
      • Teilnehmer: 129
      • Möglichkeit der Abstimmung über
        • welche die größten Fehler sind
        • welche die schädlichsten SEO Fehler sind
      • Basis für diesen Vortrag und Ausgangspunkt für meine Gliederung
    • Die größten, schädlichsten Onpage Fehler
    • Die größten, schädlichsten Offpage Fehler
    • Inhaltsübersicht (1)
      • SEO Onpage Fehler
      • Interner Duplicate Content
      • Schlechte URL-Struktur
      • Schlechte Keyword-Auswahl
      • Kein Keyword Targeting im Title Tag / Meta Tags / Heading / Text
      • Crawlability
    • Inhaltsübersicht (2)
      • SEO Offpage Fehler
      • Schlechte Mischung beim Linkaufbau
      • Externen Duplicate Content
      • Zu hohe Geschwindigkeit beim Linkaufbau
      • Schlechter Linkkauf / -miete
      • Schlecht gebaute Linknetzwerke
    • 1. Interner Duplicate Content (1)
      • Gleicher / ähnlicher Inhalt einer Seite einer Website ist unter mehr als einer URL aufrufbar.
      • Auf der selben oder anderen Domain.
      • Kanonische URL
        • http://www.domain.de / http://domain.de http://domain.de/index.php
        • http://domain.de/index.htm
      • Jede sortierte Liste ist potentieller Duplicate Content.
      • Wiederkehrende Textbausteine: Versandinfos, Urheberrechtshinweise, Texte im Footer
      • Affiliate URLs wie ?partnerid=2647
      • Gleiche Seite mit Parameter :
        • http://www.beispiel.d?IchBinEinParameter
    • 1. Interner Duplicate Content (2)
      • Erkennen:
        • Google „site“ – Abfrage.
        • Google „intitle“ – Abfrage.
        • Teil des Inhalts oder Description der Seite in “in Anführungsstrichen” bei Google in die Suchbox kopieren.
      • Verhindern:
        • Einzigartigen Content mit uniquen Title und Description schaffen.
        • „ noindex,follow“ Meta Tag setzen.
        • Über die robot.txt Datei Seiten vom Crawler aussperren – geht nicht mehr.
        • Canonical Tag.
    • 2. Schlechte URL Struktur (1)
      • http://www.target.com/gp/detail.html/602-9912342-3046240? _encoding=UTF8&frombrowse=1&asin=B000FN0KWA
      • URLs beschreiben nicht immer ihren Inhalt, nutzen keine Keywords oder sind einfach zu lang.
      • http://etsy.com/view_item.php?listing_id=477443&pic_id=2
      • Zu viele Parameter sowie Lücken durch Unterstrich.
    • 2. Schlechte URL Struktur (2)
      • Beschreibe deinen Inhalt. Verzichte auf Nummern.
      • Kurz soll sie sein.
      • Statische URL Form wählen, denn niemand mag eine URL, die von "?," "&," und "=" dominiert wird.
      • Keywords in der URL sind nicht schädlich.
      • Verzichte auf Subdomains: eine Verlinkung auf die Subdomains stärkt diese, aber nicht die Hauptseite selber.
      • Weniger Unterkategorien.
      • Vermeide Groß- und Kleinschreibung in der URL, ansonsten 301.
    • 3. Schlechte Keyword Auswahl (1)
      • Verzicht auf Keyword Tools.
      • Optimierung für zu kleine Nischen oder zu unklare Suchbegriffe.
      • Konzentration auf sehr populäre Suchbegriffe.
      • Folge: zu wenig Traffic
        • wegen einer geringen Anzahl an Suchanfragen im Fall von einer Nische.
        • wegen eines starken Wettbewerbes und fehlender Autorität, in diesem Wettbewerb zu bestehen.
    • 3. Schlechte Keyword Auswahl (2)
      • Ausführliche Keyword Recherche mit Suchvolumen, Info zum Wettbewerb, am besten mit Google Adwords Tool / Google Insight
      • Clusterung nach Themen
      • Google Suggest für die häufigsten inhaltlich zusammenhängenden Suchanfragen zu den Hauptthemen
      • Adwords Kampagne starten und Suchanfrage - Bericht ziehen, Conversion pro Keyword messen
      • Gut konvertierende Suchbegriffe identifizieren
      • Basis für Kategorien, URLs, externen Linkaufbau, Anchortext - Auswahl
    • 4. Kein Keyword Targeting (1)
      • Keine oder die falschen Keywords in der URL, im Title, in der Description, in den Überschriften, in der Bildbeschreibung, im Text.
      • Falsche Reihenfolge des Keywords im Title.
    • 4. Kein Keyword Targeting (2)
      • Title: wichtigstes Keyword sollte an 1. Position stehen.
      • Meta Description: Inhalt der Seite beschreiben, je besser, desto höher CTR.
      • URL: je kürzer, desto besser. Je näher das Keyword an der Domain, desto besser (domain.de/keyword).
      • Keywords mit „/“ von der Hauptdomain trennen. Innerhalb der Domain lieber zusammenschreiben: pinkgrapefruit.com ist besser als pink-grapefruit.com.
      • H1-6 – Überschriften haben einen geringeren Einfluss als man denkt. H1-2 sollte man nutzen, die anderen, wenn nötig.
      • alt Attribut + Bild-Dateiname mit Keyword besetzen, immer Seiten mit Bildern bauen.
      • Bold/Strong/Italtic/Emphasized – jeweils einmal pro Seite pro Keyword nutzen
    • 5. Crawlability (1)
      • Begrenzte Zeit für den Crawler – gemessen an der Autorität der Seite.
      • Zu viele Seitenfilter, unnötige Indexseiten.
      • Zu viele Seiten wegen internen DC.
      • Seiten über Robot.txt aussperren.
      • Meta Tag „robots“ ist auf „noindex, nofollow“ eingestellt.
      • Zu viele Parameter in der URL.
      • Kein interner Linkaufbau.
      • Zu viel Javascript und AJAX.
    • 5. Crawlabiliy (2)
      • Baue Autorität auf, so dass dir mehr Zeit für die Crawler bereitgestellt wird.
      • Wenn Seiten nicht gecrawlt werden sollen, dann: „?nichtcrawlen=“
        • domain.de/pullover?nichtcrawlen=blau-xl
      • Ansonsten zu viele Parameter in deiner URL und Seitenstruktur vermeiden.
      • Wichtige Seiten sollten nahe der Domain sein.
      • Erhöhe deine Ladezeit, so dass dein Server die Anfragen der Suchmaschine wie Besucher schneller bearbeiten kann.
      • Verlinke alle deine Seiten - auch untereinander und zurück.
      • Nutze einen RSS Feed, um neue Seiten schneller erkennen lassen zu können.
    • 6. Schlechte Mischung beim Linkaufbau (1)
      • Linktexte, Linkziele sind gleich.
      • Die Backlink-Qualität ist schlecht.
      • Linklisten, Footer Links oder Sidelinks.
      • Zu Beginn zu viele Social Bookmarks.
      • Kein natürlicher Mix von “nofollow” und “follow”-Links.
      • Keine richtige Gewichtung von Brand- & Keywordlinks.
      • Ungleichgewicht in der Deep Link Ratio (wie oft wird auf die Start- sowie Unterseite verlinkt?)
    • 6. Schlechte Mischung beim Linkaufbau (2)
      • Linktexte und Linkziele variieren.
      • Ausgewogener Mix von “nofollow” und “follow”-Links.
      • Linklisten / Sidelinks / Footer Links vermeiden.
      • Ausgewogenes Verhältnis der Seitentypen (Blog, Forum, Portal etc.).
      • Anzahl an Trusted-Links und schwachem Backfill beachten.
      • Facebook-Likes, Shares, Tweets & andere Social Mentions.
      • Eine richtige Gewichtung von Brand- & Keywordlinks.
      • 50/50 – Gewichtung der Deep Link Ratio.
    • 7. Externen Duplicate Content (1)
      • doppelte Inhalte
        • außerhalb der eigenen Domain
        • im eigenen Netzwerk
        • auf Websites der Konkurrenz
        • auf Subdomains des eigenen Projektes
        • Rein inhaltlich – die Struktur der Seite ist damit nicht gemeint
    • 7. Externen Duplicate Content (2)
      • Erkennen:
        • Google „site“ – Abfrage.
        • Google „intitle“ – Abfrage.
        • Teil des Inhalts oder Description der Seite in “in Anführungsstrichen” bei Google in die Suchbox kopieren.
      • Verhindern:
        • Einzigartigen Content mit uniquen Title und Description schaffen.
        • „ noindex,follow“ Meta Tag setzen.
        • Über die robot.txt Datei Seiten vom Crawler aussperren – geht nicht mehr.
        • Canonical Tag.
    • 8. Zu schneller Linkaufbau (1)
      • Zu viele Links zu Beginn.
      • Nach einem Monat mit starken Linkaufbau folgt ein Monat ohne Link setzen.
    • 8. Zu schneller Linkaufbau (2)
      • Definition über wie viel eine Domain täglich/wöchentlich/monatlich Links verträgt.
      • Kontinuierlicher Linkaufbau.
      • Besondere Ereignisse (z.B. Linkbait, Verlosung, neuer Inhalt) nutzen, um in einem Monat überdurchschnittlich Links zu bauen.
    • 9. Schlechter Linkkauf / -miete (1)
      • Zu schnell, zu viel, zu starke Links.
      • Konzentration auf PageRank.
      • Keine Kontrolle der Anzahl ausgehender Links.
      • Setzen von Footer / Side Links.
      • Link ohne thematische Relevanz.
      • Zu viele Links von Webportalen und Social Bookmark Diensten.
      • Diese Quellen haben mehrere negative Eigenschaften:
        • schlechte Nachbarschaft (SPAM-Links & Kommentare),
        • eine überdurchschnittlich hohe Anzahl an ausgehenden Links,
        • bekannt als künstlicher Linkgeber.
    • 9. Schlechter Linkkauf / -miete (2)
      • Zeitplan für den Linkaufbau erstellen.
      • Analyse der linkgebenen Seite: optisch und inhaltlich, Anzahl der Werbeblöcke, Domain Popularität, IP Popularität, ausgehende Links, C-Netzwerk.
      • Analyse der Links der Wettbewerber.
      • Ausgewogener Mix von “nofollow” und “follow”-Links.
      • Der optimale Link kommt aus dem Fließtext eines neuen Artikels.
      • Link / Anchor sollte thematisch zur Seite passen.
      • Neben deinen Link sollte mind. ein interner sowie ein externer Link zu einer vertrauenswürdigen Seite gesetzt werden.
    • 10. Schlechte Linknetzwerke (1)
      • Gleiches Impressum.
      • Whois – Daten.
      • Meta Tag “Author“.
      • Gleiche IP-Adresse der Domains.
      • Auffällige / zu starke Verlinkung der Domains innerhalb des Netzwerks.
      • Zu Starke Verlinkung zum Hauptprojekt.
      • Überoptimierung der Seiten.
      • Zu schneller Linkaufbau .
    • 10. Schlechte Linknetzwerke (2)
      • Keinen Hinweis zur Identität liefern.
      • Unterschiedliche WHOIS-Einträge.
      • Unterschiedliche IP.
      • Anderes C- Netzwerk.
      • Anderes Layout.
      • Langsamer Linkaufbau.
      • Themenrelevanz beachten.
      • Weniger zum Hauptprojekt verlinken.
    • Danke fürs Zuhören
      • Kontakt
        • Blog: larsheinemann.wordpress.com
        • E-Mail: l.heinemann@myphotobook.de
        • Tel.: 0174 / 17 42 491
    • Anhang
    • Quellenangaben zur Onpage Optimierung
      • Interner Duplicate Content
        • http://www.whiteside-seo.de/duplicate-content/
        • http://www.seokratie.de/dublicate-content-bei-gogle-vermeiden/
      • schlechte URL-Struktur
        • http://www.seomoz.org/blog/11-best-practices-for-urls
      • Crawlability
        • http://www.agent-seo.com/seo/6-crawlability-mistakes-how-to-cure-them/
        • http://www.seo-book.de/technik/sonstiges/erweiterte-crawlability-dont-waste-robot-time
        • http://www.searchenginepeople.com/blog/crawlability-enhancers-tips-for-deep-crawling-success.html
    • Quellenangaben zur Onpage Optimierung schlechte URL-Struktur http://www.seomoz.org/blog/seo-cheat-sheet-anatomy-of-a-url
    • Quellenangaben zur Onpage Optimierung http://www.seomoz.org/blog/perfecting-keyword-targeting-on-page-optimization
    • Quellenangaben zur Onpage Optimierung
      • Keyword Auswahl
        • http://www.seomoz.org/beginners-guide-to-seo/keyword-research
        • http://www.seomoz.org/blog/perfecting-keyword-targeting-on-page-optimization
      • Textumfang zu gering
        • http://www.karlkratz.de/onlinemarketing-blog/seo-keyword-density/
    • Quellenangaben zur Offpage Optimierung
      • Externen Duplicate Content
        • http://www.whiteside-seo.de/seo/was-ist-duplicate-content-externer-dc/
      • Linknetzwerk
        • http://www.boeserseo.com/allgemein/die-sache-mit-den-ips.html
        • http://www.slideshare.net/Linknetzwerke/linknetzwerke-campixx-2011
      • Linkaufbau
        • http://seouxindianer.de/blog/wie-prueft-google-linkkauf/
        • http://www.mediadonis.net/deep-thinking-about-deep-linking/
        • http://www.mediadonis.net/die-sache-mit-dem-brand/
    • Quellenangaben zur Tools
      • Crawlability
        • http://code.google.com/intl/de/speed/page-speed/
        • https://addons.mozilla.org/de/firefox/addon/yslow/
        • http://www.webpagetest.org/
      • Interner DC - Plagiatfinder:
        • Uncover (Textbroker)
        • Copyscape
        • Plagaware
        • Fingerprint (für Bilder)
      • Keyword Research
        • http://www.wordle.net/
        • http://www.karlkratz.de/onlinemarketing-blog/keyword-tools/