Der perfekte SEO-Relaunch (Teil 5): Die optimale Nachsorge

Beitrag aus Ausgabe 68 / Oktober 2017
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Nach dem Go-Live einer neuen Website sollte man sich nicht beruhigt zurücklehnen. Der beste Freund in dieser Zeit sollte die Google Search Console sein – mit dem (fast) direkten Draht zu Google.

Der Relaunch einer neuen Website ist häufig ein anstrengender Prozess. Ähnlich wie bei einer Geburt ist natürlich „Tag 0“ der alles entscheidende Tag. Um beim Bild zu bleiben, ist die „Nachsorge“ aber mindestens genauso wichtig. Denn auch bei perfekter Planung können immer noch Detailprobleme auftauchen, die man bei den Prüfungen vorab übersehen hat bzw. gar nicht sehen konnte, da man z. B. beim Testen der Markups oft nur stichprobenweise prüft. In diesem vorletzten Teil der Artikelserie geht es daher um die optimale Nachsorge: Welche Reports sollte man sich anschauen? Und was kann man dort entdecken?

Der perfekte SEO-Relaunch: Eine Serie in sechs Teilen

2017 bietet das suchradar eine sechsteilige Artikelserie zum Thema Relaunch. Denn nach wie vor werden bei der Neugestaltung von Websites viele Fehler gemacht. In dieser Reihe geht es daher um Themen wie 301-Weiterleitungen, On-Page-Anforderungen, Go-Live-Prozesse und vieles mehr.

Bisher erschienen:

Teil 1: Der perfekte Stage
suchradar 64 (Februar 2017)

Teil 2: 301-Umleitungen prüfen
suchradar 65 (April 2017)

Teil 3: Der Pre-Launch-Check
suchradar 66 (Juni 2017)

Teil 4: Was beim Go-Live passieren muss
suchradar 67 (August 2017)

Crawling-Fehler

Wer bei der Vorbereitung des Relaunches (siehe Teil 3) alles richtig gemacht hat, hat dafür gesorgt, dass für alle wichtigen alten Seiten eine 301-Umleitung auf eine neue Seite existiert. Im Rahmen des Relaunches werden in der Google Search Console unter „Crawling-Fehler“ (siehe Abbildung 1) aber trotzdem viele Fehler angezeigt – in der Regel 404-Fehler („Seite nicht gefunden“). Ist das schlimm? Kann das Nachteile bringen?

Zunächst ist es so, dass viele 404- oder auch andere Seiten-Fehler per se keinen negativen Einfluss auf die Rankings oder Sichtbarkeit haben. Natürlich führt ein 404-Fehler einer Seite jedoch dazu, dass das entsprechende Ranking verloren geht. Außerdem wird ein eventueller externer Link auf eine solche Seite weder der Seite noch der Website zugerechnet. Da im Rahmen der Vorbereitung aber alle rankenden Seiten und Seiten mit externen Verlinkungen bedacht werden, kann eigentlich nichts Schlimmes mehr passieren.

Wie in Abbildung 1 zu sehen ist, findet Google natürlich immer noch Seiten, die jetzt einen 404-Fehler generieren – weil es die Seiten in der neuen Website nicht mehr gibt oder weil die Seite so unwichtig war, dass man dafür keine Umleitung eingerichtet hat. Beim Relaunch der Website www.bloofusion.de galt das z. B. für die Seite www.bloofusion.de/events/bloocon/agb.html [Seite nicht mehr verfügbar], die die AGB der Veranstaltung BLOO:CON beinhaltete. Die Seite hatte keine Rankings und auch keine externen Verlinkungen. Das Letztere kann man übrigens relativ einfach prüfen, indem man auf die jeweilige URL klickt und dann in den Tab „Verlinkt über“ wechselt (siehe Abbildung 2). Google weist natürlich zu Recht darauf hin, dass hier möglicherweise nicht alle URLs aufgeführt werden, aber in der Regel ist es so, dass hier externe Links erscheinen, wenn es denn welche gab.

Mit der entsprechenden Vorbereitung kann man den Report für „Crawling-Fehler“ also relativ entspannt durcharbeiten. Dabei sind vor allem zwei Dinge wichtig: Es dauert einige Tage, bis in dem Report Fehler erscheinen. Und es werden maximal 1 000 fehlerhafte URLs angezeigt. Wer mehr als 1 000 URLs einsehen möchte, sollte die ersten 1 000 Einträge herunterladen, dann als korrigiert markieren und dann wieder von vorne anfangen. Bei einer hohen Anzahl fehlerhafter URLs kann das natürlich einige Zeit dauern.

Wenn man die Liste zusammengestellt hat, kann man diese durcharbeiten, um evtl. Seiten zu finden, die man doch noch umleiten möchte. Gelegentlich kann es sein, dass man hier noch einen „Schatz“ findet, aber – wie gesagt – mit der richtigen Vorbereitung sollte das unwahrscheinlich sein.

hreflang-Fehler

Wer eine internationale Website betreibt, sollte nach dem Go-Live auf jeden Fall den Report „Internationale Ausrichtung“ im Auge behalten, denn dort werden Fehler beim hreflang-Tag aufgeführt. Da hreflang-Tags im HTML-Code versteckt sind, fallen Fehler dort typischerweise nicht auf. Auch ist es oft so, dass diese nicht flächendeckend, sondern nur auf einigen Seiten oder Seitentypen auftreten. Und diese Fehler findet man dann am besten mit der Google Search Console.

In der Übersicht (siehe Abbildung 3) sieht man zunächst, für welche Sprache/Länder fehlerhafte Tags existieren. Dabei muss man aber beachten, dass nicht alle vermeintlichen Fehler auch tatsächlich welche sind. Manchmal hat Google einfach nur Probleme, die Korrektheit der hreflang-Tags über mehrere Seiten hinweg korrekt zu verfolgen.

In der Praxis sollte man sich also die URLs der jeweiligen Seiten in der Google Search Console herunterladen und dann über ein externes Tool überprüfen. Kostenlos geht das sehr gut mit hreflang.org (die URLs über „Analyse Pages from a List“ überprüfen). Je nach Anzahl der Seiten kann das natürlich durchaus einige Zeit in Anspruch nehmen. Kostenpflichtig kann man dazu den Screaming Frog SEO Spider einsetzen, der seit einiger Zeit auch hreflang-Tags überprüfen kann.

Sobald die hreflang-Tags von einem der Tools geprüft wurden, geht es an die Fehlerbehebung. Dabei ist es hilfreich, systematische Fehler zu finden, um den Dienstleister oder die IT-Abteilung nicht mit Anfragen zu überfordern.

Fehlerhafte Markups

Wer auf seiner Website auch Markup einsetzt – und das werden mittlerweile die meisten Unternehmen sein –, sollte auch die Korrektheit dieser Markierungen überprüfen. Denn auch hier zeigen sich Fehler oft nur auf einigen wenigen Seiten. Über den Report „Strukturierte Daten“ sieht man hier relativ übersichtlich, welche Markups es auf der Website gibt und wo Fehler auftauchen. Auch hier ist es oft so, dass Markup auf vielen Seiten korrekt ist und sich Fehler nur auf einigen wenigen Seiten finden lassen (z. B. weil sich in die Preisinformation, die eigentlich nur aus einer Zahl besteht, bei Angeboten das Wort „Ab“ einschleicht).

In der Google Search Console werden in der Regel schon direkt Fehler angezeigt (also z. B. „Folgendes fehlt: author“ für ein fehlendes author-Attribut). Aber auch hier passiert es manchmal, dass der Fehler nicht (mehr) existiert. Es bietet sich also auch hier an, die Daten live zu testen. Dazu bietet Google einen direkten Link an, um in das „Test-Tool für strukturierte Daten“ zu wechseln (siehe Abbildung 4).

Auch hier geht es dann wieder darum, systematische Fehler zu finden und diese durch die IT abstellen zu lassen.

Noch mehr?

Man sollte natürlich auch einen Blick auf die folgenden Reports werfen:

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 68 von Oktober 2017 mit dem Titelthema „Remarketing / Retargeting: aus Besuchern Kunden machen“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen