Your SlideShare is downloading. ×
Google top ranking tipps
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Introducing the official SlideShare app

Stunning, full-screen experience for iPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Google top ranking tipps

718
views

Published on

Google top ranking tipps - kaum ein Thema wird heißer diskutiert als Suchmaschinenoptimierung. Wie schaffe ich es, in die top 10 von Google zu kommen? Dieser Beitrag ist eine sehr hilfreiche …

Google top ranking tipps - kaum ein Thema wird heißer diskutiert als Suchmaschinenoptimierung. Wie schaffe ich es, in die top 10 von Google zu kommen? Dieser Beitrag ist eine sehr hilfreiche Zusammenfassung für eine erfolgreiche Suchmaschinenoptimierung (SEO).
Bei der Suchmaschinenoptimierung lassen sich zwei Hebel zu Verbesserung der Sichtbarkeit in den
Suchergebnissen finden: Alles was direkt am Webprojekt optimiert werden kann ( OnSite) und alles
was von aussen auf die Seite einwirkt (OffSite). Der gewichtigere Teil liegt im Bereich der Offsite-
Optimierung – einer der wenigen Punkte der Suchmaschinenoptimierung, der recht unumstritten ist.

Published in: Marketing

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
718
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
3
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Suchmaschinenoptimierung für Google - Eine Kurzeinführung - Begriffsdefinition Suchmaschinenmarketing, Suchmaschinenwerbung, Suchmaschinenoptimierung Unter Suchmaschinenmarketing (SEM, Search Engine Marketing) versteht man alle Marketingaktivitäten, die direkt mit Suchmaschinen in Verbindung stehen. Grundsätzlich gilt es, zwischen Suchmaschinenwerbung (SEA, Search Engine Advertising) und Suchmaschinenoptimierung (SEO, Search Engine Optimizing) zu unterscheiden. Dazwischen liegt eine größere Grauzone, denn die klassische Unterscheidung zwischen SEA und SEO verschwimmt. Nach klassischer Definition beschäftigt sich SEO mit den natürlichen Suchergebnissen, SEA mit den bezahlten. Doch dann gibt es beispielsweise ein zu zahlendes Produkt des Yahoo Search Marketing, das gegen Bares eine Echtzeit-Indizierung (aber kein besseres Ranking) verspricht. Doch kann natürlich nur gefunden werden, was im Index ist. Auf der anderen Seite sind da Google Product Search oder Google Branchencenter – fraglich ob und wie lange diese Dienste kostenfrei bleiben. Nach klassischer Definition würden diese beiden wichtigen Dienste die Seite wechseln, von SEO zu SEA. Mit Adsense verschwimmen zudem die Grenzen zwischen zu anderen Teilgebieten des Online-Marketings. Suchmaschinenoptimierung – OnSite und OffSite Bei der Suchmaschinenoptimierung lassen sich zwei Hebel zu Verbesserung der Sichtbarkeit in den Suchergebnissen finden: Alles was direkt am Webprojekt optimiert werden kann ( OnSite) und alles was von aussen auf die Seite einwirkt (OffSite). Der gewichtigere Teil liegt im Bereich der OffsiteOptimierung – einer der wenigen Punkte der Suchmaschinenoptimierung, der recht unumstritten ist. Bei OffSite ist zu unterscheiden zwischen OnPage – alles was an einer einzelnen Unterseite zu optimieren ist – und OnStructure – was die Gesamtheit des Webprojektes angeht. Optimiert wird immer eine Unterseite zu einen bestimmten Suchbegriff , wobei „Begriff“ mehrere Wörter umfassen kann. Auch die Startseite ist eine Unterseite, jedoch sollte man beachten, dass die Startseite die allgemeinste Unterseite des ganzen Projektes ist. Da in der Regel lediglich fünf bis sieben Sekunden Zeit bleiben, um den Besucher genügend Reize zu senden, damit er nicht den „Zurück-Button“ des Browsers betätigt, verbietet sch im Grunde die Suchmaschinenoptimierung der Startseite. Effektiver sind Unterseiten, die genau auf das Thema des Suchenden zugeschnitten sind. Die anschließenden Optimierungsmaßnahmen beziehen sich auf Google, gleichwohl diese bei Yahoo oder Bing ebenso gelten.
  • 2. OnPage-Optimierung Der Quellcode Standard-Technologien wie XHTML und CSS erlauben es den Code so zu strukturieren, dass der eigentliche Inhalt möglichst weit vorne im Quelltext positioniert ist, nachrangige, sich beispielsweise wiederholende Inhalte wie die Navigation, weiter unten im Quelltext. Das Wichtigste zuerst – einer der zentralen Merksätze in der Suchmaschinenoptimierung. Meta-Tags haben, entgegen einigen immer noch kursierenden Gerüchten, keine Auswirkung auf die Sichtbarkeit von Websites in den Suchergebnissen. Besonders hingewiesen soll an dieser Stelle, dass die sogenannten Meta-Keys keinerlei Auswirkungen auf die Websuche haben. Augenmerk sollte bei den Meta Tags auf die Description gelegt werden, denn dies wird von den Suchmaschinen ausgelesen und im Regelfall bei der Darstellung in den Suchergebnissen verwendet. Eine gut formulierte Description sollte zum Klicken anregen. Empfehlenswert ist weiterhin die Absicherung der Description durch den NoOdp-Tag, um Querschlägern aus dem wichtigen DMOZVerzeichnis vorzubeugen. Während die Description lediglich der Klick-Optimierung dient, ist der Title-Tag zwar sichtbarer Teil des Suchergebnisses, aber auch ein gewichtiges Mosaiksteinchen der OnSite-Optimierung. Im Title-Tag sollte die Wortkombination zu finden sein, auf die die Unterseite optimiert wurde und gleichzeitig muss dieser Title-Tag zum Klicken anregen. Neben dem Title-Tag sind die Überschriften, im Quelltext durch H-Tags ausgezeichnet, die Stellen, an denen der gewünschte Suchbegriff auftauchen sollte. Im Seiteninhalt kann der Suchbegriff auch durch die Tags Strong bzw. Em hevorgehoben werden. Textinhalte Oft taucht die Frage auf, welche „Keywort-Dichte“ der individuelle Inhaltsteil einer Seite aufweisen sollte. Dies lässt sich recht einfach beantworten: der Text muss sich natürlich lesen. Ein Anteil von unter fünf Prozent ergibt sich dabei von selbst. Wichtiger als die dauernde Wiederholung von den gewünschten Suchbegriffen ist die Verwendung von Synonymen und Wörtern aus dem Umfeld des Suchbegriffes. Semager i und Metagerii können hier eine große Hilfe sein. Grundsätzlich lässt sich auch sagen: Je mehr Text-Inhalte ein Webprojekt bietet, um so höher ist die Sichtbarkeit eines Webprojektes in den Suchergebnissen. Nicht-Textinhalte Auch wenn die relevanten Suchmaschinen, allen voran Google, im Kern Text-Suchmaschinen sind, so werden die reinen Text-Suchergebnisse immer mehr durch Ergebnisse von Spezialsuchen ergänzt: Branchencenter, Produktsuche, Bilder, Videos, Nachrichten, Blogs und nun auch noch Tweets und Facebook-Statusmeldungen. Jedes dieser so genannten OneBox-Results sind Ergebnisse von Spezialsuchen, die wiederum optimiert werden können, was allerdings den Rahmen einer Kurzeinführung sprengt.
  • 3. OnStructure-Optimierung Domains Die Wahl der Domain ist eine der wichtigsten Entscheidungen bei der Entwicklung eines neuen Projektes, hat Auswirkungen bis hin zur Sichtbarkeit in den Suchergebnissen. Beispielsweise ist das Alter der Domain ein gewichtiger Faktor. Grundsätzlich gilt: Je älter um so besser. Einige Effekte wie der Sandbox-Filter lassen sich durch die Auswahl einer alten Domain umgehen. Doch das Domainalter ist nicht das einzige Kriterium, die Entscheidung für eine bestimmte Top Level Domain (TLD) ist auch ein SEO-Thema, jedoch immer im Zusammenhang mit weiteren Abhängigkeiten, beispielsweise Keyword-Domains. Unter einer echten Keyword-Domain ist ein Domainname zu verstehen, der exakt mit einem Suchbegriff übereinstimmt und keine Bindestriche enthält. Aktuell sind Keyword-Domains unter den TDL .COM, .ORG und in abgeschwächter Form auch für .NET ein Bonus-Faktor beobachten: • Der Sandbox-Effekt ist nur in abgeschwächter Ausprägung vorhanden oder lässt sich sogar komplett umgehen. • Der Aufwand, mit dem Domainnamen – der ein Suchbegriff ist – ein gutes Ranking zu erzielen, sinkt enorm. Die Aussage über die TLD gilt auch für die nationalen TLD im jeweiligen Land, also .DE in Deutschland oder .AT in Österreich. Abseits von Keyword-Domains kann ein Bonus für Domains unter der jeweiligen nationalen TLD nicht mehr beobachtet werden. Subdomains Subdomains können wertvolle Dienste leisten, beispielsweise bei der Strukturierung nach Sprachen oder Ländern – falls eine der internationale TLD .COM, .ORG, .NET, .INFO oder .BIZ gewählt wurde. Google Webmaster Central iii bietet nach entsprechender Authentifizierung die Möglichkeit, nicht nur jede Domain unter internationaler TLD einem bestimmten Land zuzuordnen, sondern jeder Subdomain. Damit lassen sich die meisten Probleme des Geotargeting vermeiden. Den Umstand, dass Subdomains keine völlig eigenständige Domains sind und von Google nicht als solche Behandelt werden, kann man sich auf vielfältige Weise zunutze machen. So vererben Subdomains durch Verlinkung untereinander sehr leicht Relevanz, auch über Sprachgrenzen hinweg. Hat eine Domain erstmal eine Relevanz zu einem bestimmten Themenbereich erreicht und wird eine Subdomain hinzugefügt, beispielsweise um ein Thema zu spezialisieren, dann startet diese Domain nicht bei Null, sondern erbt Grundvertrauen und Relevanz. Wenn hier von Subdomains die Rede ist, dann muss gleichzeitig auf einen häufig vorkommenden Denkfehler hingewiesen werden: www ist eine Subdomain und leider sind die Inhalte vieler Projekte sowohl auf dieser Subdomain, als auch über die Hauptdomain an sich erreichbar. Dies führt zu doppelten Verwendung von Inhalten, was sich negativ auf die Sichtbarkeit in den Suchergebnissen auswirkt.
  • 4. Verzeichnis-Strukturen Eine Ebene unter der globalen Struktur Domain/Subdomain ist die Verzeichnisstruktur angesiedelt. Diese sollte genutzt werden, um die Inhalte sinnvoll zu strukturieren, beispielsweise nach Themen, Dateiformate oder Sprachen. Die Verzeichnisstruktur sollte nicht zu tief geplant werden. Auch wenn diese Verzeichnisse bei der Verwendung moderner Content Management Systeme (CMS) nur virtuell vorhanden sind – Google unterscheidet hier nicht. Jede Verzeichnisebene rückt die darin liegenden Dateien weiter in die Struktur hinein, weg von der Startseite, was bei der aktuellen Implementierung des Google-Algo bedeutet, dass diese Inhalte weniger wichtig sind. Bei der thematischen Gliederung sollte auf eine sinnvolle Bezeichnung der Verzeichnisse geachtet werden. Der Hinweis, dass Suchbegriffe als Verzeichnisname sich positiv auf die Sichtbarkeit in den Suchergebnissen auswirken, muss man immer mit der Warnung vor tiefen Verzeichnisstrukturen verbinden. Weniger ist manchmal mehr! Dateinamen Sprechende Dateinamen ohne Parameter oder Session-ID sollten inzwischen zum Standard moderner CMS gehören. Der Suchbegriff, auf den eine Unterseite optimiert wurde, sollte auch im Dateinamen zu finden sein. Beinahe unnötig ist inzwischen der Hinweis, dass sinnvolle Dateiendungen genutzt werden sollten. Hidden Web Manchmal ist es sinnvoll oder notwendig, Inhalte mehrfach auf einem Projekt zu führen. Dies widerspricht jedoch den Google-Richtlinien und kann sich negativ auf die Sichtbarkeit im Index auswirken. Es gibt jedoch mehrere Möglichkeiten, doppelte Inhalte (DC, duplicate content) von der Indizierung durch die Suchmaschinen auszuschließen und so DC zu vermeiden. Vieles lässt sich über die robots.txt regeln. In dieser Datei können Anweisungen für die Suchmaschen hinterlegt werden, welche Verzeichnisse oder Dateien gelesen werden dürfen und welche nicht. Dies ist die empfehlenswerte Vorgehensweise, wenn die DC-Strukturen eindeutig sind. Dazu gehört die häufig übersehene DC-Quelle Druckausgabe oder Download als PDF. Anders verhält es sich, wenn der DC nicht so eindeutig lokalisiert werden kann bzw. Unterseiten aus DC bestehen müssen. Ein Beispiel dafür wären die Schlagwortseiten (Tags). In solchen Fällen wäre die Verwendung der Robots-Anweisung „noindex, follow“ in den Meta-Tags weitaus sinnvoller. Diese Anweisung verhindert das Indizieren der Seite, erlaubt jedoch der Suchmaschinen die Verfolgung der Links. Interne Verlinkung Jede Unterseite, die einen eingehenden Link von einer anderen Unterseite hat und die linkende Seite im Suchmaschinenindex aufgenommen wurde, wird irgendwann selbst indiziert. Es gibt zwar
  • 5. andere Möglichkeiten, die Schmaschine auf die Existenz von Unterseiten hinzuweisen, die Verlinkung ist jedoch die natürlichste. Je mehr eingehende Links eine Seite hat, um so wichtiger wird diese, nicht nur innerhalb der Projekt-Struktur sondern auch in der Aussensicht. Wichtige Unterseiten sollten intern häufig verlinkt werden und zwar möglichst direkt von der obersten Ebene , der Startseite. Je kürzer der Weg von der Startseite zur Unterseite, um so höher schätzen die Suchmaschinen die Wichtigkeit innerhalb der Projektstruktur ein. Für interne Verlinkung innerhalb eines Projektes lassen sich neben der normalen Navigationsstruktur auf Breadcrumb-Navigation, Tag-Cloud sowie natürlich direkt Links – besonders innerhalb der Texte – einsetzen. Die wichtigsten Unterseiten mit möglichst vielen Links zu versorgen ist unumstritten eine der grundlegenden Optimierungsmaßnahmen. Im Umkehrschluss wollten einige SEO den unwichtigen Seiten diese Wertung ganz entziehen, indem darauf zeigende Links mit NoFollow entwertet werden wurden. Die Entwertung funktioniert immer noch, hat jedoch seit Sommer 2009 den negativen Effekt, dass die Wertigkeit NoFollow-Link der linkenden Unterseite trotzdem abgezogen wird. Der Nutzen wird also mehr als neutralisiert. Links auf externe Seiten Mit Links auf externe Seiten sollte sparsam umgegangen werden, nicht nur weil jeder Link nach Aussen die Suchmaschinen weg vom eigenen Projekt leitet , sondern auch da Links auf „schlechte“ Seiten sich negativ auf die eigene Sichtbarkeit in den Suchergebnissen auswirken können. Schlechte Seiten, darunter sind Projekte zu verstehen, die Google wegen Regelverstöße schlechter positioniert, als es natürlich der Fall wäre. Nur erkennt man dies nicht. Links auf Autoritäten sind problemlos. Einige Experten vertreten sogar die Meinung, dies sei für das Ranking der eigenen Projekte förderlich. OffSite-Optimierung OffSite-Optimierung besteht alleine aus Linkauf- und Linkabbau, der Positionierung des Webprojektes und dessen Unterseiten in einem passenden Umfeld. Für die Zuordnung der Relevanz eines Webprojektes, genau genommen jeder Unterseite eines Webprojektes, bewertet Google die die eingehenden Links. Und jeder Link zählt, entweder positiv oder negativ. Die Wertigkeit eines Links darf nicht – ein häufig gemachter Fehler – vom Page Rank (PR) abgelesen werden. Eine natürliche Linkstruktur besteht aus Links unterschiedlicher Qualität, von möglichst vielen verschiedenen Domains, die wiederum auf möglichst vielen IP-Adressen, ja sogar C-Class Netzwerken kommen sollten. Für die Zuordnung von Themenrelevanz nutzt Google den Linktext und die Relevanz der link-gebenden Seite (die sich meist auch im Ranking ausdrückt) zum Thema. Links von „besonderen“ Seiten wiegen deutlich schwerer: • Trusted Sites: Projekte, denen Google ein erhöhtes Vertrauen entgegen bringt. Kennzeichen von Trusted Sites sind beispielsweise Domainalter, gewachsene Linkstruktur, Links von Authoritys. • Authoritys: Projekte, die an Knotenpunkten im Web stehen oder von vielen Authoritys verlinkt werden. Beispiele sind Whitehouse.gov oder Spiegel.de. Authortys fallen durch eine hohe Sichtbarkeit in den Suchergebnissen auf.
  • 6. • Hubs: Unterseiten von Trusted Sites, die auf die Top-Seiten zum gesuchten Thema verweisen. Wird man von solchen Hubs verlinkt, wird man faktisch in eine Reihe mit den relevantesten Seiten zum Thema gestellt. Hubs müssen nicht unbedingt ein gutes Ranking aufweisen. Ein Hinweis zu Hubs: Was im Positiven klappt, funktioniert auch im Negativen, d.h. eine Linkstruktur, die in großen Teilen mit abgestraften Websites übereinstimmt, führt unweigerlich ebenfalls zu negativen Auswirkungen für die Sichtbarkeit in den Suchergebnissen.
  • 7. i http://www.semager.de/keywords/?lang=de ii http://metager.de/asso.html iii http://www.google.com/webmasters