Der perfekte SEO-Relaunch (Teil 6): Die wichtigsten Fehler, die es zu vermeiden gilt

Beitrag aus Ausgabe 69 / Dezember 2017
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Ein Relaunch ist nicht nur ein Aufbruch, sondern auch ein potenziell gefährlicher Einschnitt. Wer hier Fehler macht, kann der eigenen Website durchaus Schaden zufügen. Wie und mit welchen Tools kann man das vermeiden?

In den letzten fünf Teilen dieser Serie ging es um die wichtigsten Schritte bei einem Relaunch-Projekt – vom Anfang bis zum Go-Live und noch darüber hinaus. Dieser letzte Beitrag soll nun den Blick auf die schlimmsten Fehler richten, die nachhaltigen Schaden verursachen können – und deswegen unbedingt vermieden werden sollten.

Der perfekte SEO-Relaunch: Eine Serie in sechs Teilen

2017 bietet das suchradar eine sechsteilige Artikelserie zum Thema Relaunch. Denn nach wie vor werden bei der Neugestaltung von Websites viele Fehler gemacht. In dieser Reihe geht es daher um Themen wie 301-Weiterleitungen, On-Page-Anforderungen, Go-Live-Prozesse und vieles mehr.

Bisher erschienen:

Teil 1: Der perfekte Stage
suchradar 64 (Februar 2017)

Teil 2: 301-Umleitungen prüfen
suchradar 65 (April 2017)

Teil 3: Der Pre-Launch-Check
suchradar 66 (Juni 2017)

Teil 4: Was beim Go-Live passieren muss
suchradar 67 (August 2017)

Teil 5: Die optimale Nachsorge
suchrdar 68 (Oktober 2017)

Teure Fehler

Es gibt im Rahmen eines Relaunches sicherlich Fehler bei der Umsetzung, die auch später noch korrigiert werden können. Fehlerhafte Seitentitel oder auch fehlendes Markup können jederzeit ergänzt werden, ohne dass es bei den Seiten zu dauerhaften Schäden kommt. Wichtig ist es deshalb, darüber nachzudenken, welche Fehler sich nachhaltig negativ auswirken können. Dazu zählen primär die folgenden vier Fehler:

301-Umleitungen

Am häufigsten werden im Rahmen eines Relaunches wohl die nötigen 301-Umleitungen fehlerhaft oder lückenhaft implementiert. Wie schon in Teil 2 dieser Artikel-Reihe beschrieben, ist es deshalb wichtig, Umleitungen gewissenhaft zu erstellen und dann auch zu prüfen.

Wer 301-Umleitungen nicht manuell Seite für Seite erstellen möchte, muss auf die Hilfe von Tools zurückgreifen. In vielen Fällen können hier Content-Management- oder Shop-Systeme weiterhelfen. Wenn das nicht möglich ist, kann man auch mittlerweile auf einige interessante kostenpflichtige Spezial-Tools zurückgreifen. Sowohl RelaunchApp (www.relaunchapp.com, siehe Abbildung 1) als auch searchVIU (www.searchviu.com, siehe Abbildung 2) gehen beide den Weg, die bestehende und die Stage-Website zu crawlen und dann die Inhalte miteinander abzugleichen. Dazu müssen bei beiden SaaS-Tools zunächst Einstellungen vorgenommen werden, die primär das Crawling betreffen. Es ist aber auch möglich, Daten z. B. von Google Analytics, der Search Console und externen Tools wie SISTRIX zu importieren.

Danach versuchen die Tools, die alten und neuen Inhalte zu vergleichen, was in der Praxis oft erstaunlich gut funktioniert. Die so ermittelten Umleitungen können dann entweder direkt übernommen oder manuell angepasst werden. Es ist wohl klar, dass ein solcher Prozess bei Tausenden Seiten auch nicht in Minuten erfolgen kann – aber eben doch viel schneller als das manuelle Erstellen von Umleitungen in Excel.

Versehentliches Sperren von Seiten

Auch das versehentliche Sperren von Inhalten – manchmal auch der gesamten Website – ist nicht wirklich selten. Besonders „beliebt“ ist dabei der Fehler, dass die Stage-Website per robots.txt oder Robots-Meta-Tag für Suchmaschinen gesperrt wird und diese Sperre dann beim Go-Live der Website beibehalten wird.

Prüfen kann man das am besten, indem direkt nach dem Go-Live die neue Website mit einem Tool wie dem Screaming Frog SEO Spider gecrawlt wird. Wenn man die entsprechenden Optionen („Ignore robots.txt“ ausschalten, „Respect noindex“ und „Respect canonical“ einschalten) auswählt, sollte man beim Endergebnis die Seiten sehen, die es dann später auch in den Google-Index schaffen. Falls beim Crawl alle oder teilweise relevante Seiten fehlen, muss man dem Problem auf den Grund gehen.

Fehlende Inhalte

301-Umleitungen sind extrem wichtig. Diese funktionieren aber nur dann, wenn alte und neue Seite hinsichtlich der Inhalte ziemlich deckungsgleich sind. Ansonsten wird die Umleitung gerne als „Soft 404“ gewertet, was dann dazu führt, dass die Rankings nicht von der alten auf die neue Seite übertragen werden.

Es ist also extrem wichtig, sich bei der Erstellung der neuen Website-Struktur genau zu überlegen, welche Inhalte auf der alten Site Traffic-relevant sind und deswegen auch in die neue Website übernommen werden müssen. Nur dann kann auch die Umleitung zum gewünschten Erfolg führen.

Fehlerhafte Behandlung von Crawlern

Einige Websites nutzen z. B. eine sogenannte Geo-IP-Umleitung: Ein Nutzer aus den Niederlanden wird dann z. B. direkt auf die Unterseite /nl/ weitergeleitet, sodass er die deutschen Inhalte gar nicht erst sieht. Das mag für den Nutzer sinnvoll sein, aber auch Google ist in gewisser Weise ein Nutzer: Der Crawler (Googlebot) greift ebenfalls auf die Website zu – in der Regel mit einer IP, die den USA zugeordnet wird. Wenn man nun nur anhand der IP-Adresse umleitet, kann es passieren, dass Google so nur die Inhalte, die für die USA gedacht sind, abrufen kann.

GEO-IP-Umleitungen sind also immer mit Vorsicht zu genießen. Der einzig sichere Weg, fehlerhafte Umleitungen zu erkennen, besteht in der Nutzung der Google Search Console. Dort kann man über die Funktion „Abruf wie durch Google“ erkennen, wie der Googlebot handelt. Am besten sollte das Ergebnis dann nicht wie in Abbildung 3 aussehen, denn dort wird der Google-Crawler pauschal immer auf die englischsprachigen Inhalte weitergeleitet.

Weitere Fehler

Neben diesen „teuren“ Fehlern, die sich nachhaltig auf die organische Sichtbarkeit auswirken können, gibt es aber noch viele andere, die gerne und oft gemacht werden.

So zeigt sich in der Praxis, dass häufig auch externe Daten nicht korrekt bedacht werden. Dazu zählen vor allem XML-Sitemaps, News-Sitemaps oder auch Product-Feeds für das Google Merchant Center. Wenn man z. B. die Website von HTTP auf HTTPS umstellt, passiert es nicht selten, dass in der XML-Sitemap immer noch HTTP-URLs zu finden sind. Unternehmen sollten also im Relaunch auch über alle Daten nachdenken, die von anderen Tools gebraucht werden.

Auch das Markup, das mittlerweile auf vielen Websites Daten strukturiert für Suchmaschinen abbildet, ist häufig fehlerhaft. Entweder werden wichtige Markups gar nicht implementiert oder Markup wird fehlerhaft in Seiten eingebaut – in einigen Fällen sogar so, dass es als „Review Spam“ gilt und damit gegen Google-Richtlinien verstößt. Markup sollte also in jedem Fall geprüft werden. Das Test-Tool für strukturierte Daten (https://search.google.com/structured-data/testing-tool?hl=de) gilt hier als das Tool der Wahl.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 69 von Dezember 2017 mit dem Titelthema „SEO + SEA: gemeinsam besser“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen