Link-Audits: Sichere Entscheidungen einfach treffen

Beitrag aus Ausgabe 77 / April 2019
SEO
Bastian Grabsch und Eric Warsow

Bastian Grabsch ist Projektleiter mit dem Fokus auf Linkaudits bei Performics Germany am Standort Berlin. Neben den gängigen Disziplinen der Offpage-Optimierung ist er verantwortlich für die Steuerung und Umsetzung von strategischen und operativen Linkaudits.

Eric Warsow ist Head of SEO – Outreach bei Performics Germany am Standort Berlin.

Link-Audits sind selten eine besonders beliebte Aufgabe. Mit ein paar Kniffen in der Datenaufbereitung und der Analyse lässt sich aber viel Frust und Zeit sparen. Wie? Übersicht, Excel-Magic, Add-ons!

„Das Disavowen von schlechten und minderwertigen Backlinks kann dazu beitragen, die Vertrauenswürdigkeit der eigenen Webseite zu stärken“ – so oder so ähnlich hat sich John Mueller in einem Google Webmaster Hangout am 22.01.2019 geäußert (siehe https://www.youtube.com/watch?v=cXbWuQQp81A). Vorausgegangen war die Aussage einer Teilnehmerin, dass die Nutzung des Disavow-Tools deutliche Rankingverbesserungen ergeben habe.

Diese Beobachtungen sind typisch und unterstreichen die Notwendigkeit des Link-Audits bzw. eines fortlaufenden Monitorings der auf die eigene Website eingehenden Links. Vor allem bei älteren Domains steht man oft vor der Aufgabe, tausende URLs zu evaluieren, bevor eine Aussage zur Qualität des Backlinkprofils möglich ist. Neben den ersten strategischen Überlegungen ist der operative Teil eines Audits der zeitintensivste. Wie sich durch ein schematisches Vorgehen schon vor der Bewertung einzelner Links sehr viel Zeit sparen lässt und wie sicheres Grundlagenwissen Unsicherheiten in der Bewertung vermeiden und Entscheidungen beschleunigen kann, soll hier erklärt werden.

Datensammlung und -aufbereitung – Ordnung ist die halbe Miete!

Die Grundlage für ein Audit sollte immer die maximal verfügbare Datenbasis sein – zumindest die Backlinkdaten der Search Console sollten geprüft werden. Diese sind zwar bei Weitem nicht vollständig, können aber vor allem bei Rankingverlusten erste Hinweise liefern. Besteht darüber hinaus Zugang zu einschlägigen SEO-Tools wie Ahrefs, Majestic oder SEMrush, ist es ratsam, die Daten auch dort einzugeben und mit relevanten Metriken anzureichern. Mögliche Metriken können sein:

  • Top-Level-Domain (TLD) der linkgebenden URL
  • http-Status-Code der linkgebenden URL (ist die URL überhaupt noch erreichbar?
  • Linkintegration: dofollow vs. nofollow
  • IP-Adresse der linkgebenden Domain

http-Status der linkgebenden Domains ermitteln

Eine effektive Maßnahme, um die Backlinkdatenbasis bereits im Vorfeld auszudünnen, ist die Abfrage des http-Status der linkgebenden Domains. Viele der Daten, die von der Google Search Console oder anderen Tools bereitgestellt werden, sind zum Zeitpunkt des Audits gar nicht mehr abrufbar. Fehlercodes wie 500 oder 503 und 404 (Klasse 5xx – Server-Fehler oder Klasse 4xx – Client-Fehler) können gefiltert und direkt als „nicht mehr erreichbar“ markiert werden, ohne sie dafür öffnen zu müssen.

Tools wie der Screaming Frog SEO Spider unterstützen dieses Vorhaben (siehe Abbildung 1). Es ist empfehlenswert, den Spider im „List Mode“ einmal alle linkgebenden URLs durchlaufen zu lassen.

Nofollow-Links ignorieren

Liefert die Datenbasis Informationen über die Art der Linkintegration (dofollow vs. nofollow), kann man im nächsten Schritt alle nofollow-Verlinkungen von der weiteren Betrachtung ausschließen. Denn diese geben keinen PageRank weiter und wirken sich somit weder positiv noch negativ auf das Ranking einer Webseite aus.

Feed-URLs getrost vernachlässigen

Oft enthalten Datensätze hunderte URLs, die nur für Feedreader existieren bzw. die Vorschau eines RSS-Feeds anzeigen. In den als Snippet angezeigten Inhalten sind dennoch teilweise Links enthalten. Ende 2018 hat Mozilla Firefox – lange nach Google Chrome – die Vorschau dieser Feeds deaktiviert.

Da es für jeden in einem RSS-Feed enthaltenen Link eine originäre Quelle gibt, sind diese URLs zu vernachlässigen. Sollten hier Risiken bestehen, werden diese mit der Löschung oder Entwertung der eigentlichen Quelle entfernt. Zudem sind die URLs von RSS-Feeds häufig bereits von der Indexierung ausgeschlossen. Selbst wenn dies nicht der Fall ist, sind sie meist nicht bei Google indexiert. URLs, die „/feed/“ enthalten, können also risikofrei ohne vorherige Ansicht aus der Bewertung genommen werden.

Einige Beispiel-URLs:

https://303magazine.com/tag/shayla-preeshl/feed/

https://303magazine.com/tag/spring-2014-trends/feed/

https://www.45eggs.com/category/media/copyit/feed/

Schnellere Bewertung innerhalb definierter Cluster

Wird das Link-Audit in einer Excel-Datei durchgeführt, ist es wichtig, den Prozess von Anfang an so strukturiert wie möglich anzugehen, um Zeit zu sparen. Im Folgenden werden mögliche Methoden dargestellt, mit denen sich vor der Betrachtung einzelner URLs größere Datencluster bewerten lassen.

Bekannte Spam-Websites identifizieren

Eines der bekanntesten Spam-Netzwerke trägt den Namen „The Globe“. Dieses Netzwerk verlinkt teilweise von mehreren Hundert unterschiedlichen Domains auf die eigene Website (siehe Abbildung 2). Einen echten Mehrwert liefert keine dieser Domains.

Basierend auf eindeutigen Mustern lassen sich selbst große Backlinkprofile in Excel schnell und effektiv nach diesen Links filtern:

1. Der Ankertext ist eine Kombination aus Zahlenfolge + Brand.

2. Der Referring Page Title lautet immer: The Globe – „The world’s most visited web pages“.

3. Die URL enthält die Phrase „the_worlds_most_visited_web_pages_“.

Erste Indizien auf Basis der Top-Level-Domains (TLDs)

Nicht alle Top-Level-Domains zeugen von hoher Vertrauenswürdigkeit. Man kann sogar so weit gehen zu sagen, dass bestimmte Top-Level-Domains mit sehr hoher Wahrscheinlichkeit ein gewisses Risikopotenzial bergen oder zumindest als minderwertig gelten können.

Einige Beispiele für solche Top-Level-Domains:

  • .gq
  • .cf
  • .tk
  • .ga
  • .xyz
  • .biz

Auch länderspezifische TLDs wie „.cn“ oder „.ru“ gilt es je nach Art und Internationalität des Projekts kritisch zu untersuchen.

Tipps für Excel-Profis

Extrahieren der Root-Domain aus einer beliebigen URL:

B2 = Zelle, in der die URL liegt

=WENN(ISTFEHLER(FINDEN("//www.";B2)); TEIL(B2;FINDEN(":";B2;4)+3;FINDEN("/";B2;9)-FINDEN(":";B2;4)-3); TEIL(B2;FINDEN(":";B2;4)+7;FINDEN("/";B2;9)-FINDEN(":";B2;4)-7))

Extrahieren der Top-Level-Domain aus einer beliebigen Root-Domain:

A2 = Zelle, in der die Root-Domain liegt

=RECHTS(A2;LÄNGE(A2)-FINDEN("*";WECHSELN(A2;".";"*";LÄNGE(A2)-LÄNGE(WECHSELN(A2;".";"")))))

Neuer Thread: Foren zusammenfassen

Das Bilden von Clustern – oder anders ausgedrückt: die Reduktion thematischer Gedankensprünge – spart Zeit. Vor diesem Hintergrund ist es nur folgerichtig, Links aus Foren zusammenzufassen und sie „in einem Rutsch“ zu bewerten. Bis auf wenige Ausnahmen enthalten diese linkgebenden URLs bestimmte Termini, nach denen man in Excel ohne großen Aufwand filtern kann:

  • community
  • forum
  • thread
  • topic
  • viewthread
  • viewtopic
  • printthread
  • threadid

Blogspot, WordPress & Co. – Blog-Hosting-Services im Visier

Große Projekte bekommen oft viele Links von Blogs, die bei WordPress oder Blogspot gehostet sind. Gerade Blogspot-Domains wurden eine Zeit lang massiv für Spam missbraucht. Um Authentizität vorzutäuschen, ist den Blogs oft ein Google+-Autorenprofil zugeordnet. Tritt Spam auf, gibt es häufig URLs, die bestimmte Begriffe enthalten, auch der Meta Title des Blogs ist trotz variabler Domain häufig identisch. Anhand solcher Muster lassen sich schnell ganze Spam-Netzwerke identifizieren. Es ist daher sinnvoll, solche URLs ebenfalls zusammenzufassen und gebündelt zu bewerten.

Auffällige IP-Cluster identifizieren und untersuchen

Besteht die Möglichkeit, die IP-Adressen der vorliegenden URLs zu crawlen, stellt die Häufung von IPs einen weiteren Ansatzpunkt dar. Wichtig: Auf einer IP können völlig unterschiedliche Domains liegen, die nichts miteinander zu tun haben. Dennoch ist es möglich, anhand der IPs Netzwerke auszumachen und unterschiedliche Domainnamen mit den gleichen negativen Inhalten zu identifizieren. Hierfür bietet sich die Excel-Formel „ZÄHLENWENN“ an. Diese zählt, wie häufig ein bestimmtes Kriterium auftritt, und gibt den Wert in der gewünschten Zelle zurück (siehe Abbildung 3).

Dieses Vorgehen ist auf jedes Kriterium anwendbar; treten dort Häufungen auf, lassen sich daraus Schlüsse auf eventuelle negative Auswirkungen oder potenzielle Risiken ziehen.

Zu bewertende Links schneller finden

Vom Öffnen der URL bis zum Finden des gewünschten Links können mitunter einige Minuten vergehen. Nicht immer ist das Objekt der Begierde auf den ersten Blick erkennbar, weil es in Reihen aus vielen weiteren Links versteckt ist. In diesem Fall kann die Suche länger dauern.

Verschiedene Tools leisten Abhilfe und tragen zur Zeitersparnis bei.

Like A Pro – mehrere URLs gleichzeitig öffnen

Es ist hilfreich, mehrere URLs gleichzeitig zu öffnen, um

  1. nicht jede URL in die Browserzeile kopieren zu müssen.
  2. den Workflow nicht durch unnötig lange Ladezeiten der Webseiten zu verzögern.

Das geht bspw. mithilfe von Tools wie weburlopener.com oder openmultiurl.com.

Hilfreiche Add-ons für die Linksuche verwenden

Um Links auf der URL ausfindig zu machen, gibt es diverse Möglichkeiten. Natürlich kann man manuell scrollen und auf diese Weise mühsam nach dem Ankertext suchen.

Wesentlich effektiver ist es, mithilfe der Entwicklertools (siehe Abbildung 4) direkt im Quelltext zu suchen. Der Vorteil dieser Vorgehensweise ist, dass man per Mausklick direkt in den sichtbaren Bereich der Webseite springen kann, in dem sich der gesuchte Link befindet.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 77 von April 2019 mit dem Titelthema „Content vs. Werbung“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen