Wenn Experten-Meinungen kollidieren – die beliebtesten SEO-Mythen und Entdeckungen

SEO auf dem Prüfstand – Experimente, Überraschung und eine Einsicht
Kommentare

SEO ist ein unerschöpfliches Thema, über das alle Bescheid wissen wollen, zu dem aber eigentlich niemand stichhaltige Beweise liefern kann. Was heute als sicher gilt, wird vielleicht morgen schon wieder per Update verworfen. Und dennoch gibt es Experimente, die eine gute Orientierung bieten. Einige davon haben alte Mythen aus der Welt geschafft – und dafür neue ins Netz gesetzt. Ein Blick hinter die Systematik und mit ausgewählten SEO-Experimenten, die überraschen.

SEO-Experten und Schamanen haben vielleicht eines gemeinsam: sie deuten die Zeichen, die sich ihnen bieten. Denn Googles Suchmaschinen-Algorithmus und das Wetter sind ähnlich launisch. Zwar sind die grundsätzlichen Abläufe bekannt, doch genaue Vorhersagen lassen sich aufgrund der Komplexität und Wandelbarkeit nicht immer treffsicher ableiten. Mit über 200 geschätzten Faktoren, die das Ranking der Suchergebnisse beeinflussen sollen, greifen mehr Faktoren ineinander, als überhaupt bekannt sind.

Kurze Wiederholung zur Ausgangslage

Um Manipulationen des Rankings zu verhindern, gibt Google selbst nur wenig über die Platzierungsfaktoren preis und überarbeitet kontinuierlich den Such-Algorithmus. Viele Unternehmen sind bereit, einen hohen Preis für eine gute Platzierung zu bezahlen. Der Fall BMW aus dem Jahr 2006 war eines der berühmtesten Beispiele dafür, wie bewusste Eingriffe abgestraft werden können.

Wenn Google dann mal Hinweise gibt, werden viele Seitenbetreiber schnell hellhörig – Beispiel Mobilegeddon, die Umstellung auf HTTPS oder der Klassiker Google Penguin. Ob diese Änderungen aber tatsächlich einen spürbaren Einfluss auf das Ranking nahmen, wurde sehr unterschiedlich beantwortet. Teilweise ließ sich das erst Monate oder Jahre später einschätzen. Was am Ende bleibt, sind oft noch mehr Spekulationen – zumindest so viel ist sicher.

James Reynolds hat sich deshalb auf die Suche gemacht und die größten SEO-Mythen zusammengetragen. Hierfür wurden die Experimente anderer SEO-Experten miteinander verglichen und die bekanntesten Optimierungsansätze unter die Lupe genommen. Die Ergebnisse überraschen: Einige der SEO-Maßnahmen, die von der Mehrheit längst als unumstößlich oder aber als purer Unfug eingeschätzt wurden, haben sich dank vieler Versuche als jeweils das Gegenteil herausgestellt.

Die Klick-Rate und der Überraschungsfaktor

Die wohl prominenteste SEO-Weisheit dreht sich voll und ganz um den Klick, auch Click-Through-Rate (CTR) genannt. Kritiker wie auch Befürworter diskutieren weiterhin über den Einfluss von CTR-Maßnahmen. Die Theorie in der Kurzfassung: Je mehr User ein Ergebnis in der Google-Suche klicken, desto weiter oben wird es irgendwann angezeigt. Doch dazu gehört offenbar noch ein bisschen mehr. Rand Fishkin, mit über 300.000 Twitter-Followern einer der populärsten unter den selbsternannten SEO-Experten, hat den Test gemacht. Dazu hat er einen Tweet-Aufruf gestartet.

Eine feste Suchanfrage, in diesem Fall „IMEC Lab“, sollte von möglichst vielen Followern bei Google eingegeben werden. In den Suchergebnissen sollten die Testpersonen dann anschließend den Blog von Fishkin anklicken, der zunächst an siebter Stelle rangierte. Nachdem laut Google Analytics rund 175-250 Personen den Blog besuchten, fand sich der Blog nach drei Stunden auf dem ersten Platz wieder. Surprise, surprise. Folgetests haben jedoch gezeigt, dass sich das Ranking trotz mehr Klicks sehr viel weniger verbesserte; oft nur um eine Position.

Darum hat Fishkin das Experiment wiederholt: Dieses Mal während der Fußballweltmeisterschaft 2014. Wieder konnte er per Tweet 375 Follower dazu bewegen, ein vorgegebenes Suchergebnis zu klicken. Nach 30 Minuten schoss die Versuchsseite von Platz zehn auf den ersten Rang.

Der Knackpunkt ist offenbar die Zeit und der Überraschungsfaktor. So ist der Testreihe zufolge entscheidend, ob innerhalb eines kurzen Zeitraums viele Personen das Suchergebnis klicken. Ebenso wichtig sei es aber, dass die Klick-Rate über einen längeren Zeitraum hinweg aufrecht gehalten werde, um die Position zu behalten. Andernfalls fällt die Seite wenig später wieder auf die hinteren Ränge zurück. Dass Google alles andere als statische Ergebnisse liefert, haben die Versuche eindrücklich gezeigt. Letztlich kommt es aber wieder auf den Content an, auf den möglichst viele Personen nachhaltig aufmerksam gemacht werden müssen.

International JavaScript Conference 2017

The Vue of Search Engine Optimization – How to make your Single-Page App rank well

mit Dennis Schaaf (futurice) & André Scharf (DigitasLBi)

Von 0 auf 100 – Performance im Web

mit Sebastian Springer (MaibornWolff GmbH)

I didn’t know the Browser could do that

mit Sam Bellen (madewithlove)

Mobilegeddon war ein wahrer Alptraum

„Hey! Rankings in mobile search results changed“ – so klang die fröhliche Hiobsbotschaft am 21. April 2015 auf dem Webmaster-Blog von Google. Unternehmen befürchteten das Schlimmste: Wer nicht auf Responsive Design umstellte und sein Angebot Mobile-freundlich gestaltete, sollte in den mobilen Rankings abgestraft werden. Das hatte Google zwar so nicht gesagt, doch das lasen viele zwischen den Zeilen.

Nach den ersten Wochen zeigte sich jedoch, dass wenig passierte. Der anfängliche Aufschrei wurde durch vielerlei Tests und Meinungen relativiert. Die Befürchtungen legten sich, Entspannung trat ein. Erst ein Jahr später platzte die Bombe, als Stone Temple Consulting nachgewiesen haben wollte, dass es für fast 50 Prozent aller Seiten, die nicht optimiert wurden, im Ranking steil bergab gegangen sei. Dieser Trend setze sich weiterhin fort, solange die Seite nicht Mobile-freundlich gemacht werde. Wie unter SEO-Experten üblich, gibt es auch dazu gegenteilige Standpunkte.

Die Moral von der Geschicht’: Manchmal sollte man sich auf die erste Intuition verlassen. Wenn jedoch die öffentliche Meinung, darunter auch die Presse, zunächst Gegenteiliges behauptet, ist das gar nicht so einfach. Auch beim sogenannten Mobilegeddon spielte der Zeitfaktor wieder eine Rolle. Anders als bei den CTRs wurden die Rankings jedoch über einen längeren Zeitraum hinweg angepasst. Der Überraschungsfaktor zielte nicht auf das Ranking, sondern auf die erhitzten Gemüter ab. Leider waren die Reaktionen teilweise dennoch viel zu langsam.

Der Ruf der Vorfahren: Geister-Links

Vor etwa fünf Jahren wurde die Idee formuliert, dass bereits entfernte Backlinks weiterhin Einfluss auf die Suchergebnisse haben könnten. Diese mal „link ghosts“ oder „link echoes“ genannten Rückverweise könnten dabei sowohl guten wie schlechten Einfluss auf aktuelle Rankings von Seiten ausüben. Dass Anchor-Text-Links das Ranking positiv beeinflussen, ist unter Berücksichtigung einiger Einschränkungen in der SEO-„Fachwelt“ allgemein anerkannt. Dass dies auch bei überarbeiteten beziehungsweise gelöschten Links der Fall sei, ist hingegen umstritten. Ein abgewandelter A/B-Test soll jedoch den Einfluss nachgewiesen haben.

Die Ausgangslage: eine Seite A auf der Position 31 im Ranking und eine Seite B mit Rang 11 in der Suchmaschine. Im Test wurden Links auf 22 Pages verschiedener Webseitenanbieter sowohl auf Seite A als auch Seite B hinterlegt. Seite A rückte danach auf Platzierung 1, Seite B auf 5. Beide konnten also durch die Backlinks ordentlich zulegen.

In der zweiten Versuchsanordnung wurden diese Links gelöscht. Nach Tagen befanden sich die Seiten noch auf der gleichen Position. Dass Google nicht sofort abstraft, wenn die Links entfernt werden, überraschte kaum. Als jedoch auch Monate später noch in einem weiteren Test von Rand Fishkin die Ergebnisse trotz Löschung überwiegend konstant blieben, war die Verwunderung bedeutend größer. Die Geisterwelt der Links nimmt also noch Einfluss auf gegenwärtige Suchergebnisse.

Zweierlei Schlüsse lassen sich mindestens ziehen: Verlinkungen von renommierteren Seiten (die ein gutes Ranking und viel Aufmerksamkeit genießen) sind auch als Erbe offenbar noch Gold wert. Andererseits zeigt der Versuch auch, dass die digitalen Spuren im Netz länger bleiben, als es manch einem lieb sein dürfte. Will heißen: Auch wenn negative Informationen oder Falschmeldungen häufig verlinkt wurden, können diese trotz Löschung noch im Nachklang prominent vertreten bleiben, siehe Mobilegeddon. Backlinks haben also sowohl Gutes als auch Schlechtes, je nachdem, in welcher Konstellation, Häufung und Relevanz des Link-Setzers sie verkettet werden.

Ranking-Klau durch Duplikate

Vorweg sei gesagt, die Hijack-Methode gehört zu den unlauteren Vorgehensweisen, um Suchmaschinenpräsenz einzuheimsen. Googles Argusaugen registrieren – so der Mythos – alles. Bei Häufung und Auffälligkeit werden Seitenbetreiber mit Plagiaten vom Google-Webmaster-Team angeschrieben und aufgefordert, sich an die Richtlinien zu halten, da sonst die Abstrafung folgt. So auch in einem Fall, der bereits 2012 bekannt wurde. Nun aber zur Theorie:

Angenommen jemand betreibt eine Website A mit Unique-Content, die verlinkt und geteilt wird. Daneben besteht ein Seitenbetreiber B, der bereits ein besseres Page-Ranking hat. Letzterer implementiert nun den Inhalt von A als Raubkopie. Das Ergebnis: Die kleinere Seite A wird gnadenlos in den Suchergebnissen verdrängt oder ganz herausgenommen, da B von Google als authentischer aufgefasst wird. Im Test hatte Dan Petrovic bereits 2012 das Plagiat-Problem aufgezeigt. James Reynolds empfiehlt deshalb, mit Canonical-Tags zu arbeiten, das Google Authorship Markup hinzuzufügen und regelmäßig mit Tools wie Copyscape nach Duplikaten Ausschau zu halten.

Auf HTTPS umstellen, sonst …

… könnte das Page-Ranking leiden – so die Befürchtungen. Die Meldung trudelte im August 2014 ein und verunsicherte viele Seitenbetreiber, obwohl Google durch die HTTPS-Domains doch eigentlich für mehr Sicherheit sorgen wollte. Google verpackte es so, dass lediglich die verschlüsselten Seiten begünstigt werden. Im Umkehrschluss folgerte man natürlich, dass HTTP-Seiten durch den Krypto-Vorteil verdrängt werden. Letztlich stellte sich jedoch nach mehreren Tests heraus, dass keinerlei Verdrängungsmechanismus einsetzte. Aber –

Stattdessen wollte Stonetemple Consulting sogar herausgefunden haben, dass auf HTTPS umgestellte Seiten an Ranking einbüßten. Von über 218.000 Domains, die analysiert wurden, stellten im Versuchszeitraum 630 auf HTTPS um. Die umgestellten Seiten verloren Ranking-Positionen und erholten sich danach nur langsam. Im Endeffekt pendelten sich die HTTPS-Seiten wieder ein.

James Reynolds‘ Empfehlung läuft darauf hinaus, bei der unverschlüsselten Variante zu verbleiben, solange eine Umstellung nicht unbedingt nötig ist. Dieser Standpunkt ist jedoch durchaus kritisch zu betrachten und wird keineswegs von allen geteilt. Der Sicherheitsaspekt, der vor allem dem Besucher entgegenkommt, sollte hier Vorrang genießen, nicht kurzweilige Ranking-Fluktuationen.

Linktext und Zieladresse – wenn der Anker zieht

Nachdem Google 2012 das Penguin-Update brachte, wurden zwei Weisheiten in Stein gemeißelt:

  • mit Backlinks überoptimierte Seiten werden abgestraft
  • der Ankertext sollte bestenfalls nicht mit Worten aus der Zieladresse übereinstimmen

Auf das ausgeglichene Verhältnis komme es an. Wie das jedoch genau aussehen soll, ist ein beliebtes Streitthema.

In diesem Zusammenhang soll der Frage nachgegangen werden, welchen Einfluss der Anchor-Text auf das Ranking nimmt, wenn er mit der Zieladresse übereinstimmt oder davon abweicht. In der Versuchsanordnung wurden wieder eine Seite A (Position 14) und B (Position 20) ausgewählt. Daraufhin wurden 20 Verlinkungen gesetzt, die auf die Testseiten verweisen. Für A wurde Linktext verwendet, der nicht mit der Zieladresse übereinstimmt. Für B enthielten alle Linktexte Keywords aus der Zieladresse. Das Ergebnis: Nach der Indexierung – in diesem Fall 16 Tagen – rutschte B auf die erste Position, während A Platz neun einnahm. Entgegen der Annahme, dass Linktext und Zieladresse sich nicht doppeln sollten, wurden die Übereinstimmungen besser gerankt.

Der Versuch bricht mit einem SEO-Grundsatz, ist aber keineswegs als repräsentativ anzusehen. Auch hier spielen weitaus mehr Faktoren eine Rolle, die für die Versuchsanordnung außer Acht gelassen wurden. Vor allem das Verhältnis der Link-Anzahl, die Klickraten und die Vertrauenswürdigkeit der linksetzenden Seite nehmen Einfluss auf das Ranking.

Es zeigt sich dennoch, dass nichts dagegen spricht, die eigene Marke, den Namen des Produkts oder die Domain übereinstimmend mit der Zieladresse zu verlinken. Ganz im Gegenteil. Da jedoch das ominöse durch Google bestimmte „Verhältnis“ unbekannt ist, sollte man maßvoll damit umgehen. Dass eine Abstrafung bei zu häufiger Wiederholung der Keywords erfolgt, steht seit dem Penguin-Update fest.

Wer verlinkt, gewinnt?

Auch dazu gibt es sehr geteilte Meinungen: Google selbst sagt, Verlinkungen sind wichtig. Doch das war’s dann auch schon fast an nützlichen Informationen. Alle weiteren Suchmaschinen-Updates haben später eher Verwirrung gestiftet, wie nun mit Links umgegangen werden soll.

So machte sich auch die Meinung breit, dass zu viele Outgoing-Links schädlich für das eigene Page-Ranking werden könnten. Gemeint ist: Indem man sich auf zu viele andere Quellen stützt und dies durch einen Link kenntlich macht, verliert die eigene Seite an Autorität – und damit an Relevanz in den Suchergebnissen. Auch diese Behauptung wird zu Recht angezweifelt und in einem möglichen Gegenbeweis klargestellt:

Das SEO-Marketing-Team Reboot hat dafür zunächst einen Kunstbegriff entworfen, „phylandocic“, der zuvor noch nie durch Google indexiert wurde – es gab vor dem Test keine Suchergebnisse für das Wort. Im nächsten Schritt wurden jeweils zehn Webseiten mit vergleichbaren Domain-Formaten und Seitenstrukturen angelegt. Jede Seite wurden mit einem individuellen, 300 Wörter langen Text bestückt, der sich um das Wort „phylandocic“ drehte. Bei der Hälfte der Testseiten wurden im Text jeweils drei Outgoing-Links gesetzt, bei dem Rest kein einziger Link. Bei den Verlinkungen handelte es sich um sehr vertrauenswürdige und populäre Webseiten: Oxford University, Genome Research und Cambridge University.

Das Ergebnis: Alle fünf verlinkten Testseiten standen in den Suchergebnissen für „phylandocic“ vor den unverlinkten Testkanditaten. Da es sich auch hier um eine sehr isolierte Versuchsanordnung handelt, sollten die Schlussfolgerung mit Vorsicht genossen werden. Es ist aber anzunehmen, dass Verweise auf vertrauenswürdige Seiten der eigenen Autorität im Sinne des Rankings keinen Abbruch tun. Das Gegenteil scheint eher der Fall.

Nofollows funktionieren am besten ohne Nofollows

„Ja“, sagen die einen – „Na und!?“, kontern die anderen und machen sich Nofollows zunutze. Was anfänglich zur Vermeidung von Spam-Links und zur Abschirmung von Suchmaschinen-Bots eingeführt wurde, ist längst ein probates SEO-Mittel. Die kleine HTML-Notation kann das Suchergebnis verändern – je nach Standpunkt auch verzerren.

Der eigentlich Bann kehrt sich in seinem Gegenteil um, denn Google übergeht die Notation, diese Seite nicht zu indexieren, geflissentlich und leitet auch über Nofollows eine Relevanz ab, die das Ranking positiv beeinflussen kann. Allerdings gibt es auch hierüber Unklarheiten und Streitpunkte bei der Ausführung. Einige Experimente haben aber gezeigt, wie Nofollows am besten funktionieren: nämlich, indem sie nachträglich wieder entfernt werden.

55 Nofollow-Links von Unique-Domains (einzelnen Testpersonen) wurden dazu auf eine Seite A (Position 16) angesetzt . Die Seite rückte danach auf Platz 15 vor. Die Testpersonen wurden anschließend gebeten, die Notation wieder rückgängig zu machen – also den Bann aufzuheben. Et voilà: Seite A fand sich auf Platz sechs wieder. Der Test wurde auch mit größeren Zeitfenstern wiederholt und zeigte trotzdem noch positive Ergebnisse.

Auch hier gilt wieder: Vorsicht mit voreiligen Schlüssen. Sollten die Testpersonen die zu verbannende Testseite angeklickt haben, könnte auch der CTR eine Rolle gespielt haben. Weitere nicht einkalkulierte Einflussfaktoren wären ebenso denkbar. Außerdem wird die Nofollow-Option in diesem Zusammenhang zweckentfremdet, weshalb der Vorwurf der Verzerrung berechtigt ist. Die Versuche zeigen trotzdem, dass die Löschung eines gesetzten Nofollow-Links das Ranking begünstigt.

Stellen Sie Ihre Fragen zu diesen oder anderen Themen unseren entwickler.de-Lesern oder beantworten Sie Fragen der anderen Leser.

Weitere Tests in der Zusammenfassung

Die relevanteste Verlinkung wurde bei einem Test von Dan Petrovic durch ein Bild erzielt. Für den Versuch wurden vier Domains mit ähnlichen Namen eingerichtet. Jede davon wurde von einer bereits etablierten Webseite aus mit unterschiedlichen Verlinkungen verknüpft. Der erste Link enthielt den gleichen Linktext wie die Zielseite und der zweite Link eine zusätzliche Beschreibung zum gleichen Linktext. Der Dritte war eine Bild-Verlinkung mit Alt-Text und die vierte Variante eine „klicke hier“-Phrase. Überraschenderweise erzielte die Bild-Verlinkung, die im Alt-Text die Zielphrase enthielt, das beste Ergebnis.

Pressemitteilungen sollen als Ranking-Booster für Webseiten dienen – so die Vermutung. Der „Sreppleasers“-Test erbrachte dahingehend einen weiteren Verdacht. Ironischerweise wurde durch eine Gegenbehauptung, dass dem nicht so sei, ein Beweis für die PM-These erbracht. Die Diskussion über die Glaubwürdigkeit hält weiter an.

Mit dem Page-Titel steht und fällt das gute Ranking. Der Glaube an griffige Schlagworte ist stark. Obwohl viel Zeit darauf verwendet wird, möglichst prägnante Keywords zu finden, scheint der Einfluss doch marginaler zu sein, als allgemein angenommen. Der Banana-Test hat dahingehend für Überraschung gesorgt.

Fazit

SEO ist eine Wissenschaft für sich – sollte man glauben. Doch in Anbetracht der ständigen Algorithmus-Updates, der Geheimniskrämerei von Google und zahllosen Experten-Meinungen, verbleibt die Suchmaschinen-Optimierung eher im Rahmen einer spekulativen Behelfsdisziplin. Die Testläufe deuten Tendenzen an, können aber wegen ihrer oft isolierten Anordnung nur als Orientierung verstanden werden.

Alle Ranking beeinflussenden Faktoren lassen sich auch deshalb nicht in Korrelation zueinander setzen, weil viele davon gar nicht erst bekannt sind – andere hingegen je nach Versuchsanordnung gegensätzliche Ergebnisse liefern (siehe Link-Text-Beispiele). Indem zusätzlich immer wieder die Spielregeln verändert werden, ist das kalkulierte Chaos fast perfekt.

Sinn und Zweck der Undurchsichtigkeit: Das gesamte Ranking-Ökosystem wird vor Manipulationen und Überoptimierungen geschützt. Vielleicht ist das auch besser so. Auch wenn Google sein Geheimnis für sich bewahrt hat und damit auch ganz andere, nämlich wirtschaftliche Interessen, dahinter stehen, wäre das Gemetzel der Seitenbetreiber um die Rangplätze wohl unerträglich, wenn alle die Funktionsweise der Ranking-Faktoren kennen würden. So bleibt der Wettbewerb zumindest halbwegs ausgeglichen. Was hat sich durch die Versuche aber gezeigt?

Das eigentlich Interessante ist, dass einige der berühmtesten SEO-Tricks sich über die Jahre hinweg als nachteilig oder unerheblich herausgestellt haben: Entweder, weil ein Update hinzu kam oder weil das Zusammenspiel der Faktoren unter einer veränderten Versuchsanordnung neue Einsichten lieferte, die man so zuvor noch nicht auf dem Schirm hatte. Sobald sich also ein Trend etabliert hat, kann man zumindest darauf vertrauen, dass Google die nächste Überraschung parat hält – oder ein Faktor greift, den man bisher nicht miteinbezogen hatte. Die Optimierung geht damit wieder für viele von vorne los.

Solange Googles Mechanismen Unternehmensgeheimnis bleiben, muss mit der Suchmaschine zwangsläufig wie mit einer kleinen Naturgewalt umgegangen werden. Dafür braucht es auch moderne Schamanen wie SEO-Experten. Zumindest solange kein zuverlässiger Algorithmus vorliegt, der die Funktionsweise der Suchmaschine genauestens verfolgt.

Aufmacherbild: Portrait of two business people pulling SEO banner, via Shutterstock, Urheberrecht: Creativa Images

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -