Suchmaschinenoptimierung für jedermann

Google, hier bin ich!
Kommentare

Große Grafiken auf der Startseite illustrieren die Geschäftsfelder, hippe Flash-Animationen kommunizieren die Kernkompetenzen und die Meta-Tags der Seite sind akribisch mit Stichworten verschiedenster Themengebiete gefüttert. Ein Blick in die Suchergebnisse von Google bringt schnell Ernüchterung: Selbst Monate nach dem Launch wird die Website nicht gelistet, oder wenn überhaupt auf einer den hinteren Seiten. So wird das natürlich nichts mit dem Return Of Investment. Was ist schief gelaufen?

Die schönste Seite im Netz nutzt nichts, wenn diese nicht gefunden wird! Diese Aussage, so plakativ sie auch sein mag, bringt das Problem auf den Punkt. Soll die Website nicht nur von Kunden besucht werden, welche die Internetadresse kennen, sondern auch von potenziellen Neukunden oder Interessenten durch Recherchieren gefunden werden, ist eine Optimierung für Suchmaschinen (SEO = search engine optimization) unerlässlich. Denn meist beginnt der Besuch von Websites mit mehreren Suchanfragen in einer der großen Suchmaschinen (Google, Yahoo, MSN und Konsorten).

Eine gute Nachricht vorab: Der beste Weg für ein gutes Ranking ist und bleibt ein guter Content. Je einzigartiger und qualitativ hochwertiger, desto besser. Keine technische Spielerei kann es Ihnen abnehmen, gute Inhalte zu liefern. Gerne vergessen gerade wir Programmierer, dass mehr zu einem guten Ranking gehört als clevere PHP Hacks.

Die richtigen Keywords sind das A und O

Am Anfang aller Optimierungen steht die Entscheidung, für welche Schlüsselbegriffe (Keywords) man seine Seite optimieren möchte. Hier bieten sich natürlich die Tätigkeitsfelder des Unternehmens an, jedoch sollte man auch nach Wortfamilien recherchieren! Begriffe wie „Performance-Marketing“ oder „Mobile-Marketing“ können treffende Fachbegriffe sein, aber sucht ein potenzieller Interessent auch danach? Sind Begrifflichkeiten wie „Erfolgskontrolle“ und „Handy-Marketing“ als Suchbegriffe nicht ebenso wahrscheinlich? Die richtige Mischung aus Fachbegriffen und umgangssprachlichen Begrifflichkeiten spricht ein breiteres Zielpublikum an.

Die ausgewählten Begriffe gilt es nun möglichst geschickt in die Texte der Website zu integrieren. Hierbei stellt es sich als weitaus erfolgreicher heraus, einzelne Seiten auf bestimmte Themengebiete hin zu optimieren, als alle Themen auf eine Seite packen zu wollen. Die Spezialisierung bringt wertvolle Punkte in den Bewertungskriterien der Suchmaschinen.

Die Positionierung der Keywords in den Meta-Tags der Seite galt früher als sicherer Garant dafür, dass diese Begriffe von den Suchmaschinen verstärkt wahrgenommen werden. Der Missbrauch der Meta-Tags in der Vergangenheit, vor allem durch die Pornoindustrie (kennen Sie noch die Zeiten, in denen zwielichtige Angebote stets zu den ersten Suchergebnissen gehörten, unabhängig davon wonach Sie gesucht haben?) hat dazu geführt, dass der Einfluss der Meta-Tags auf die Bewertung stark abgenommen hat.

SEO !== SEM Häufig werden die Begriffe SEO (search engine optimization) und SEM (search engine marketing) durcheinander geworfen. SEO bezeichnet die in diesem Artikel beschriebene Suchmaschinenoptimierung, während man unter SEM bezahlte Werbeeinblendungen in Suchmaschinen versteht. Bisweilen wird SEO auch als eine Untermenge von SEM verstanden. Dieser Interpretation kann ich mich aber nicht anschließen.
Bewertungskriterien im Wandel

Und hierbei sind die Meta-Tags nur die Spitze des Eisbergs. Der ständige Wettlauf zwischen Bewertungskriterien und deren Missbrauch hat dazu geführt, dass die großen Suchmaschinen ihre Bewertungskriterien ständig überarbeiten und anpassen. Insofern ist Suchmaschinenoptimierung ein ständiger Vorgang, der nie abgeschlossen ist. In gewissen Intervallen sind die Kriterien, welche man an die Seite angelegt hat, kritisch zu beleuchten, und die daraus gewonnenen Erkenntnisse in eventuelle Optimierungen einfließen zu lassen.

Techniken zur Optimierung

Natürlich gibt es eine große Anzahl technischer Ansätze, um eine Seite für Suchmaschinen attraktiv zu gestalten. Hierbei unterscheidet man zwischen den so genannten On-Page- und Off-Page-Faktoren. Als On-Page bezeichnet man die Faktoren, welche auf einer Seite die Platzierung in Suchmaschinen bestimmen, etwa Content und Quelltext. Die Off-Page-Faktoren hingegen beziehen sich auf Wertungskriterien außerhalb der eigenen Website, etwa Verlinkungen von anderen Websites und deren qualitative Bewertung.

Allen Kriterien voran stehen XHTML/CSS-konforme Layouts. Der Grund hierfür ist recht einfach: Google kann nur das gut bewerten, was es auch versteht. Komplizierte Tabellenlayouts lassen korrespondierende Inhalte vielleicht optisch beieinander stehen, im Quellcode liegen sie meist mehrere hundert Zeilen Code auseinander. Nun betrachtet Google allerdings nicht das Erscheinungsbild, sondern liest den Quellcode. Und da sorgen knappgehaltene XHTML-Auszeichnungen dafür, dass im Quellcode zusammensteht, was zusammengehört. Zusätzlich kann man es so einrichten, dass oben in der Datei die relavanten Inhalte auftauchen und nicht zwingend das, was optisch oben auf der Seite angezeigt wird. Zwingend muss darauf geachtet werden, dass das produzierte XHTML wirklich valide ist. Im schlimmsten Fall kann der Seitenparser der Suchmaschine die Seite nicht korrekt auswerten oder greift sich belanglose Inhalte.

Überhaupt kann man mit ein wenig Wissen relativ gut steuern, welche Inhalte die Suchmaschine als relevant erachtet, um diese in die Gewichtung mit einzubeziehen oder in ihren Ergebnislisten als Textausschnitt anzuzeigen. Der Schlüssel dafür liegt in den altehrwürdigen Title- und Headline-Tags. Wichtig ist vor allem der Title-Tag: Dieser beschreibt, worum es auf der Seite geht. Ist dieser leer oder auf jeder Seite gleich, kann dies nicht optimal sein. Besser ist es, die relevante Seitenüberschrift auch in den Title-Tag zu packen.

Wenn wir schon bei den Title-Tags sind: Natürlich sollten auch die Title- und Alternative-Tags von Bildern stets gefüllt werden, um Suchmaschinen das zu beschreiben, was sie nicht mit eigenen Augen auf den Bildern sehen können.

Neben dem Title-Tag sollte die Seitenüberschrift natürlich im Headline-Tag (h1, h2, …) stecken. Schon vom W3 Consortium ersonnen, um Überschriften unterschiedlicher Gewichtung abzubilden, sollten die Tags auch genau hierzu eingesetzt werden. Die Hauptüberschrift sollte immer h1 sein, danach folgen die unwichtigeren Überschriften mit aufsteigenden hs. Eine richtige Schachtelung erreicht man dadurch, dass nach einer h1 eine h2 und danach eine h3 folgt. Nach der h3 kann wieder eine h2 und dann wieder eine h3 folgen, womit festgelegt wäre: Die erste h3 ist eine Untergliederung von h2, die zweite h3 eine Untergliederung von der zweiten h2, die textlich nicht mit der ersten h2 korreliert. Möchte man nun wichtige Keywords kombinieren, packt man optimalerweise das erste Keyword in eine Überschrift und das zweite Keyword in die erste Zeile des Fließtexts unterhalb der Überschrift.

Ebenfalls hat es sich als effektiv erwiesen, die Keywords auf einer Seite zu verlinken: Bietet eine Webagentur SEO an, so sollte dies nicht nur im Menü als „Suchmaschinenoptimierung“ aufgeführt werden, sondern auch den Begriff „SEO“ überall auf der Website mit der Detailseite zu SEO zu verlinken.

Aber auch außerhalb des Content-Bereichs kann man zahlreiche Optimierungen vornehmen. Ein Ansatz ist die so genannten „sprechenden URLs“ (URL-Rewriting), um Keywords möglichst prominent in der URL zu platzieren. Hierbei erzeugt man aussagekräftige URLs, die allerdings keine Aussage über die tatsächliche Platzierung der Dateien auf dem Webserver tätigen (etwa: www.shop.com/books/coding/php/). Der Webserver oder die Applikationslogik parsen die virtuellen URLs und liefern die assoziierten Inhalte aus.

Überhaupt sind ewig lange URLs den Suchmaschinen ein Graus. Denn meist machen URLs (wenn es sich nicht gerade um hässliche Parameter wie Session-ID handelt) eine Aussage über die Strukturtiefe der Website. Hier sind ganz klar flache Hierarchien anzuraten. Möglichst viele Inhalte sollten – natürlich nur, sofern dies wirklich sinnvoll ist – direkt von der Startseite aus erreichbar sein. Je kürzer der Klickpfad von der Startseite zur Unterseite ist, desto relevanter empfindet Google den Inhalt der Unterseite.

Möchte man ganz sicher gehen, dass Google auch ja keine der sorgsam erstellten Unterseiten übersieht, kann man spezielle XML-Sitemaps anlegen. Diese sind, ebenso wie robots.txt-Dateien, lediglich für die Crawler der Suchmaschinen gedacht und übergeben diesen eine komplette Liste aller vorhandenen Unterseiten. Somit werden auch Pop-ups indiziert, welche sich eventuell nur durch JavaScript öffnen lassen.

Generell wird ein Verzicht auf JavaScript und Flash von Suchmaschinen gern gesehen, falls nicht aufwändig für barrierefreie Ersatzinhalte gesorgt wurde. Es sei auch erwähnt, dass die Verlinkung von anderen Websites aus eine wichtige Rolle spielt. Natürlich gibt es auch hier zahlreiche Fallstricke bzw. Anforderungen, welche an die Partner-Website gestellt werden. Etwa die Themen-Verwandtschaft, Authority-Gewichtung (manche Websites sind bei bestimmten Stichworten kompetenter als andere), PageRank (Kombination verschiedenster Kriterien) und andere Besonderheiten. Ein gut gemeinter Ratschlag: Lassen Sie sich von einem Fachmann Ihres Vertrauens beraten, denn mit unkundigen Anpassungen kann man viel zerstören. Im schlimmsten Fall fliegen Sie für alle Zeiten aus den Suchergebnissen der Suchmaschinen.

Schwarze Schafe

„Fachmann Ihres Vertrauens“ ist schön gesagt! Denn tatsächlich tummeln sich am Markt der Suchmaschinenoptimierer auch zahlreiche schwarze Schafe. Diese versprechen Ihnen bestimmte Platzierungen bei bestimmten Stichworten. Hier gilt: Niemand kann Ihnen eine konkrete Platzierung versprechen! Diese kann, wenn überhaupt, nur mit unseriösen und gefährlichen Tricks erreicht werden, womit wir wieder bei den sich ständig ändernden Kriterien wären. Denn sollte eine Suchmaschine plötzlich entscheiden, dass die bei Ihnen eingesetzten Tricks als „Suchmaschinen-Spam“ oder „Suchmaschinen-Spoofing“ zu verstehen sind, so können Sie von einem auf den anderen Tag aus dem Suchindex geworfen werden. Und dies ohne Benachrichtigung!

Solche „unseriösen Tricks“ gibt es viele. So kann man Seiten bei dem Besuch eines Suchroboters für diesen anders darstellen als ein Besucher die Seite zu sehen bekäme. Auch sieht man oft versteckte Links auf Keyword-Seiten oder Texte, die für Besucher unsichtbar sind. Weißer Text auf weißem Hintergrund mag zwar für das Auge unsichtbar sein, nicht aber für die Suchmaschinen. Diese jedoch prüfen mittlerweile auch den HTML-Code dahingehend, ob der Text sichtbar wäre. Trickserien können an dieser Stelle für Sie schnell unangenehme Folgen haben.

Seriöse Anbieter erkennen Sie daran, dass diese Ihnen keine konkreten Platzierungen versprechen und mit Ihnen offen auf die Vor- und Nachteile der einzelnen Optimierungsmaßnahmen eingehen.

Schatz, wie war ich? Die Erfolgskontrolle

Ob Ihre Optimierungsmaßnahmen nun greifen, ist natürlich von entscheidender Bedeutung. Die Kontrolle des Besucherstroms über Webstatistk-Software wie Webalizer bringt Ihnen nur wenig Erkenntnis. Zwar können Sie ersehen, ob die Besuchsfrequenz zu- oder abnimmt, aber der Grund dafür bleibt Ihnen meist verborgen.

Moderne WebAnalytics-Tools sind mächtige Werkzeuge, die das Thema Erfolgskontrolle in seiner Gänze abbilden. Sie beginnen bei der Bewertung der Keywords (Suchhäufigkeit und Tefferanzahl), gehen über Suchbegriffe, unter welchen Ihre Seite gefunden wurde, hin zu den damit angelockten Besuchern und deren Surfverhalten und hört bei der Messung eventueller Conversions noch lange nicht auf.

Der Markt dieser Werkzeuge ist in den letzten Jahren signifikant gewachsen. So findet sich für jedes Portemonnaie mittlerweile die passende Lösung. Doch zumindest für essenzielle Auswertungen muss man kein Geld ausgeben: Mit GoogleAnalytics hat Google ein Produkt auf den Markt gebracht, welches für Seiten mit mittlerem Besuchsaufkommen kostenlos ist.

Fazit

Suchmaschinen-Optimierung ist ein komplexes Thema. Trotz der Erkenntnis, die Sie nach der Lektüre des Artikels sicher mit mir teilen, gibt es viele Ansätze, welche Sie mit geringem Aufwand oder ohne großes Budget verwirklichen können. Dennoch ist die Optimierung nie abgeschlossen und sollte immer wieder aufs Neue überdacht und überprüft werden. Aber mit dieser Einsicht sind Sie bereits auf einem guten Weg, Ihre Seite für Suchmaschinen freundlicher zu gestalten.

Ausblick: Das semantische Web Derzeit ist das semantische Web (gerne auch als Web 3.0 bezeichnet) in aller Munde. Hinter der Bezeichnung verbirgt sich, ähnlich wie schon beim Web 2.0, nicht eine konkrete Entwicklung, sondern in diesem Falle das Zusammenspiel mehrerer Technologien (XML, XML Schema, RDF, OWL, SPARQL). Im semantischen Web wird durch bessere Auszeichnung der Inhalte deren Verstehen für die Wiedergabe-Programme (Browser, Newsreader, Web Services etc.) ermöglicht. Die Programme haben somit die Möglichkeit, die Inhalte entsprechend ihrer Bedeutung aufzubereiten, thematisch zu ordnen oder nach bestimmten Kriterien zu gliedern.

Dies hat große Relevanz für die Suchmaschinenoptimierung, da über entsprechend gekennzeichnete Inhalte den Suchmaschinen sehr gezielt der enthaltene Sinn vermittelt werden kann. Bieten Sie zum Beispiel in einem Webshop das Buch „Die Wolke“ an, fördern Suchanfragen nach „Wolke“ in einer Suchmaschine das Produkt nur dann zu Tage, wenn dort auch explizit nach Produkten gesucht wurde.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -