SEO-Mythen: Zehn Legenden rund um organische Rankings

Beitrag aus Ausgabe 70 / Februar 2018
SEO
Markus Hövener

Markus Hövener ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Nur wenige Online-Marketing-Themen sind so mit Halbwissen durchzogen wie der SEO-Bereich. Genau deswegen halten sich viele Mythen schon seit Jahren. Zehn Mal Irrglaube – und was es dazu zu wissen gibt.

Viele Mythen halten sich „erfolgreich“ seit Jahren – so wie es mit Mythen eben ist. Man hat da mal was gehört, vor Jahren stand da auch mal was in dieser einen Zeitschrift. Gerade bei SEO hat sich in den letzten Jahren aber sehr viel geändert, sodass es hier umso wichtiger ist, bestimmte Fehlannahmen zu korrigieren.

Deswegen folgen jetzt zehn SEO-Mythen, denen man auch heute noch oft begegnet – und die durchaus eine genauere Betrachtung verdienen.

#1: Ich brauche unbedingt ein Blog

Blogs – insbesondere Wordpress-Blogs – wird oft unterstellt, dass diese in Bezug auf SEO besonders gut sind.

Ein Blog an sich ist definitiv kein Allheilmittel. Bei vielen Unternehmen ist ein Blog (oder ein Magazin oder ein Ratgeber-Bereich) eine gute Möglichkeit, Inhalte abzulegen, die man in der „normalen“ Website nicht unterbringen kann. Gerade bei Onlineshops werden viele relevante Suchbegriffe durch die Kategorie- und Produktdetailseiten abgedeckt. Das Blog kann dann genutzt werden, um z. B. lösungsorientierte Inhalte unterzubringen, für die es im Shop einfach keinen guten Ort gibt.

Auch Wordpress – das wohl beliebteste Blog-System – ist sicherlich kein schlechtes Blog-System. Ob man aber auf dieses oder auf ein anderes System setzt, ist faktisch vollkommen egal. Interessant wird Wordpress eher durch die vielen Plugins, über die man verschiedene Funktionen realisieren kann. So gibt es Plugins, über die Nutzer dann einen Artikel bewerten, um so die begehrten Sternchen-Bewertungen im Suchergebnis (siehe Abbildung 1) zu erhalten. Aber: Auch diese Plugins haben keine „magische Wirkung“ und können nur helfen, einen guten Artikel noch besser für Suchmaschinen abzubilden.

 

#2: Für Duplicate Content wird man abgestraft

Hier muss zunächst ein wichtiger Begriff geklärt werden: Eine Abstrafung (auch „manuelle Maßnahme“ oder „manual action“) erfolgt dann, wenn eine Website gegen die Google-Richtlinien verstößt und wenn ein Google-Mitarbeiter die Website oder Teile davon einer Abstrafung unterwirft. In Bezug auf Duplicate Content kann das gar nicht passieren, da Duplicate Content keinen Verstoß gegen Google-Richtlinien darstellt.

Man sollte also – wenn überhaupt – eher vor einer Abwertung Angst haben. Bei einer Abwertung greift ein Algorithmus durch und verringert z. B. Rankings wegen schlechter Signale. Das würde hier natürlich deutlich besser passen: Ist Duplicate Content nicht etwas, das schlechte Signale verdient?

Duplicate Content (DC) bedeutet: Unter verschiedenen URLs ist derselbe Content zu finden. DC gibt es grundsätzlich in zwei Varianten: Bei internem DC gibt es auf derselben Domain zwei oder mehr Seiten mit denselben Inhalten (z. B. www.meinewebsite.de/ und www.meinewebsite.de/startseite.html). Bei externem DC gibt es auf unterschiedlichen Websites denselben Inhalt (z. B. www.meinewebsite.de/pressemitteilung-a.html und www.pr-verteiler.de/pm/a.html). Beide Fälle muss man hinsichtlich ihrer Wirkung unterscheiden.

Bei internem DC verteilen sich Signale über mehrere Dubletten. Wenn jemand nun sucht, wird sich Google in der Regel für eine Dublette entscheiden – wohl die mit den besseren Signalen. Wenn man die Dubletten aber nicht hätte, würden sich alle Signale auf einer einzigen Seite vereinen und so für ein besseres Ranking sorgen. Hier entstehen also potenziell schlechtere Rankings – aber nicht wegen einer Abwertung, sondern einfach aufgrund fehlender Signale.

Bei externem DC passiert etwas ganz Ähnliches: Google will ja nicht in den Suchergebnissen zig Dubletten anzeigen und wird deswegen alle bis auf eine Seite herausstreichen. Wer also über Duplicate Content verfügt, läuft Gefahr, dass die eigene Seite nicht angezeigt wird, weil andere Dubletten bevorzugt werden.

Es kann aber auch dazu kommen, dass eine Website wegen vieler doppelter Inhalte eine schlechte Gesamtbewertung erhält. Ob Google das in dieser Form wirklich macht, ist relativ strittig. Es stellt sich hier aber vor allem die Frage der Dosis: Wenn man auf einer Website mit 10 000 Seiten drei Dubletten hat, ist das objektiv gesehen sicherlich kein Grund, eine Website herabzustufen. Wenn es aber genau umgekehrt ist, sollte klar sein, dass die Website Gefahr läuft, abgewertet zu werden – sofern Google einen solchen Mechanismus überhaupt hat.

#3: Ich darf nicht zu viele Links auf einmal aufbauen

Die Angst vor zu hoher „Link Velocity“ ist relativ weit verbreitet. Wer zu schnell zu viele Links aufbaut, läuft Gefahr, deswegen abgestraft zu werden.

Hier gibt es ein klares Gegenargument: Sicherlich ist das plötzliche Auftauchen zahlreicher neuer Links ein mögliches Indiz dafür, dass jemand gezielt Links aufbaut. Es gibt aber auch durchaus legitime Fälle, in denen auf einmal mehr Links entstehen als in der Zeit davor: Gewinnspiele, Saisonalitäten, Börsengänge, Pleiten, spektakuläre Produktneueinführungen und vieles mehr. Wenn Google so etwas abstrafen/abwerten würde, könnte der Bannstrahl also auch Websites zu Unrecht treffen.

Ob und in welcher Form Google Schwankungen bei neuen Links auswertet und sanktioniert, kann natürlich nicht wirklich gesagt werden. Es gibt aber zumindest einige Indizien, z. B. die vier Fallstudien auf der Seite https://moz.com/blog/the-seo-myth-of-going-viral. Dort geht es um vier Fälle, in denen in kurzer Zeit viele neue Links entstanden sind – mit dem Ergebnis, dass eigentlich nicht besonders viel passiert ist, weder in positiver noch in negativer Hinsicht.

Grundsätzlich muss man beim Aufbauen von Links natürlich immer vorsichtig sein. Falls Google in der Lage sein sollte, bestimmte Websites als „linkverkaufverdächtig“ zu führen und dann von solchen Websites schnell viele Links entstehen, könnte das natürlich ein negatives Signal sein. Angst, mit organischen Methoden zu viele Links in kurzer Zeit aufzubauen, sollte allerdings wohl niemand haben.

#4: Facebook, Twitter & Co. sind hilfreich für SEO

Nicht selten trifft man auf Unternehmen, die ihre Facebook-Präsenz regelmäßig „füttern“, weil das ja positiv auf den SEO-Kanal ausstrahlen soll. Dazu gibt es vor allem drei gute Gegenargumente.

Erstens hat Google auf viele Daten einfach keinen Zugriff. Google müsste ja Facebook.com exzessiv crawlen, um so an alle Inhalte zu gelangen. Dieser Crawl wäre aufgrund der unglaublichen Seitenanzahl auch kaum aktuell zu halten – mal davon abgesehen, dass nur ein Teil der positiven Signale auf Facebook auch öffentlich ist.

Nun kann man entgegnen, dass Google ja durchaus Zugriff auf ein soziales Netzwerk hat: Google+. Man kann aber wohl durchaus sagen, dass nicht alle Unternehmen Google+ nutzen, was zum zweiten Argument führt: Ein Ranking-Faktor, der nicht flächendeckend verfügbar ist, ist eigentlich nicht wirklich sinnvoll. Sollte ein Unternehmen, das schlechte Leistungen anbietet, dafür belohnt werden, dass es auf Google+ setzt?

In eine ähnliche Richtung geht das dritte Argument: Google kann sich nicht auf die Signalqualität verlassen. Bei Google+ kann Google eigene Algorithmen laufen lassen, um z. B. falsche Bewertungen zu erkennen, während man bei der Nutzung der Facebook-Daten davon ausgehen müsste, dass Facebook sich schon um Manipulationsversuche in ausreichendem Maße kümmert. Sicherlich ist da einiges passiert, aber auf diversen Plattformen sind immer noch Pakete mit „1 000 Likes“ oder „100 Tweets“ zu kaufen.

Google hat wiederholt geäußert, dass auf Daten aus sozialen Netzwerken nicht zugegriffen wird. Aus den genannten Gründen ist diese Entscheidung sicherlich auch nachzuvollziehen.

#5: Wer viel Geld für AdWords ausgibt, bekommt bessere organische Rankings

Diesen Mythos kann man sicherlich recht kurz abhandeln: Angesichts der Vielzahl an AdWords-Kampagnen und SEO-Auswertungen hätte es möglich sein müssen, einen Zusammenhang zwischen der organischen und der bezahlten Google-Nutzung nachzuweisen. Google verweist seit Ewigkeiten auf die interne „chinesische Mauer“, die die beiden Welten strikt voneinander trennt.

An einem Punkt gibt es natürlich schon einen gewissen Effekt: Wer bei Google viel Geld ausgibt, hat oft auch direkte Ansprechpartner beim Suchmaschinentreiber, die in Einzelfällen schon mal dafür sorgen, dass es z. B. bei Abstrafungen zu einem besseren Informationsfluss kommt. Das sind aber, wie gesagt, Einzelfälle, die nicht dazu führen, dass eine Website bessere Rankings erreicht.

Oft wird dieser Mythos übrigens angeführt, um zu begründen, warum man gegen die Großen der Branche sowieso keine Chance hat. In gewissen Grenzen stimmt das sogar: Ein kleiner Schuhhändler wird wohl nie Zalando beim organischen Ranking für „schuhe“ schlagen können. Das ist aber nicht Ergebnis der hohen AdWords-Aufwendungen von Zalando, sondern liegt eher in vielen anderen Signalen begründet.

#6: Der Google-Algorithmus ändert sich fast täglich

Die Annahme, dass sich der Google-Algorithmus fast täglich ändert, ist absolut richtig. Es gibt viele, viele Updates pro Jahr. Aber: Die meisten Updates betreffen die eigene Website nicht.

In der Vergangenheit hat Google offengelegt, welche Veränderungen in einem bestimmten Monat durchgeführt wurden. Das passiert schon seit einigen Jahren nicht mehr, aber auch damals war schon zu erkennen, dass es eben viele kleine Änderungen gibt: die Suche nach Bildern in Kroatien, das Verhalten bei Suchanfragen mit mehr als zehn Wörtern, die Ausgabe bestimmter lokaler Suchergebnisse und vieles mehr.

Im Kern hat sich in den letzten Jahren erstaunlich wenig geändert: Content ist immer noch wichtig, Links auch, technische Maßnahmen sowieso. Gerade bei letztem Punkt zeigt sich, dass es zwar viele kleine Änderungen gibt (z. B. den Mobile-First-Index), aber die Einführung neuer wichtiger Tags wie das hreflang-Tag oder das Canonical Tag liegen schon sehr lange zurück.

Für einen „Hardcore-SEO“ ist es natürlich wichtig, all diese Änderungen mitzubekommen (siehe dazu auch der Artikel „webradar: Die besten Quellen für aktuelles SEO-Wissen“ in diesem suchradar). Für die meisten „Endnutzer“ kann man aber klar sagen, dass sich am Algorithmus faktisch gar nicht so viel ändert.

#7: Viele 404-Fehler schaden meiner Website

404-Fehler („Seite nicht gefunden“) sind sicherlich schädlich in Bezug auf den Nutzer, denn auf solch einen Link will eigentlich niemand klicken. Man sucht eine Information und findet sie nicht mehr. Das kann sehr schnell dazu führen, dass der Nutzer an diesem Punkt die Session abbricht und sich einer anderen Website zuwendet.

Aber auch in Bezug auf SEO können 404-Fehler natürlich unschön sein. Kurz gesagt: Wenn eine Seite einen HTTP-Code 404 (oder 410) liefert, wird die Seite aus dem Index entfernt und verliert ihre Rankings. Es kann durchaus einige Wochen oder Monate dauern, bis die Seite dann final entfernt wurde. Die Rankings sind aber relativ schnell weg.

Hier entsteht also ein Schaden, weil Rankings verloren gehen – wenn es sie denn vorher gab. Aber: Es stellt sich die Frage, ob eine hohe Anzahl solcher Fehler darüber hinaus negativ auf die gesamte Website einzahlt.

Hier kann man klar Entwarnung geben. Am Beispiel von Mode-Onlineshops kann das recht gut gezeigt werden. Diese löschen oft im Halbjahres-Saison-Wechsel alle Produktdetailseiten, was schnell zu einer fünfstelligen Anzahl an 404-Fehlern führen kann. Mit anderen Worten: Es ist normal, dass viele 404-Fehler auftreten, und kann daher nicht als negatives Signal gewertet werden.

#8: Ich muss meine Website regelmäßig aktualisieren

Gelegentlich findet sich noch der Mythos, dass sich eine Website ja regelmäßig ändern muss, damit diese auch von Google noch positiv bewertet wird. Dabei muss klar gesagt werden, dass die Änderungsfrequenz einer Website nicht per se relevant ist.

Sicherlich ist es wichtig, dass Inhalte, die nicht mehr aktuell sind, aktualisiert werden. Nutzer, die nach „fußball wm spielplan“ suchen, wollen sicherlich nicht auf einer Seite landen, die den Spielplan vergangener Meisterschaften darstellt. Insbesondere bei zeitabhängigen Themen ist das wichtig – aber auch bei technischen, rechtlichen, finanziellen oder medizinischen Aspekten.

Wenn eine Seite aber zeitlos richtig ist, gibt es auch keinen Grund, etwas an ihr zu ändern, nur um damit Google gefallen zu wollen. Die Frage muss also immer am konkreten Beispiel und auch an jeder einzelnen Seite der Website geklärt werden.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 70 von Februar 2018 mit dem Titelthema „Online-Marketing-Mythen: Was stimmt? Was nicht?“.

Kostenloses PDF-Magazin bestellen Kostenpflichtiges Print-Abo bestellen