Negative SEO:
Strategien für Angriff und Verteidigung

Eine Website und deren Rankings haben oft einen hohen wirtschaftlichen Wert. Auch wenn ein Angriff auf diese Werte unwahrscheinlich ist, sollte man sich doch verteidigen können. Von Markus Hövener.

 

In den letzten Wochen wurde viel über das „Schreckgespenst“ Negative SEO geschrieben. Ausgelöst wurde das neue Interesse vor allem durch den Fall Noblego (siehe separater Artikel in diesem suchradar), der gezeigt hat, dass es sich dabei nicht nur um Theorie handelt.

Unter Negative SEO werden alle Maßnahmen verstanden, mit denen einer anderen Website – genauer gesagt deren Suchmaschinen-Rankings – geschadet werden kann. Viele Möglichkeiten beruhen dabei vor allem auf den Google-Richtlinien. Denn wer es schafft, dass eine andere Website diese verletzt, hat sehr gute Karten, dass Google die Site auch abwertet.

Da man in der Regel keinen Zugriff auf eine fremde Website hat, bieten sich primär Off-Page-Maßnahmen an. Google bewertet beispielsweise alle eingehenden Links einer Website und straft durchaus Websites ab, die viele nicht-organische Links aufweisen. Wenn es also eine Website zum Thema „Immobilien“ gibt, die von 500 drittklassigen Blogs mit dem immer gleichen Ankertext „Immobilien“ verlinkt ist, wird Google mit hoher Wahrscheinlichkeit gegen die verlinkte Website vorgehen, so dass ein Ranking für den Suchbegriff „immobilien“ wahrscheinlich keinen Bestand hätte.

In der Regel baut ein Unternehmen oder eine beauftragte Agentur Backlinks für eine Website auf, so dass eine Bestrafung dann auch die trifft, die die Maßnahmen zu verantworten haben. Aber da Google nicht weiß, wer die Links aufgebaut hat, kann es an dieser Stelle einen Unschuldigen treffen, der dann darunter leiden muss, dass ein Konkurrent fragwürdige Links aufgebaut hat.

Der Bericht zum Fall Noblego wirft mehr Licht auf solche Links und die möglichen Gegenmaßnahmen. In diesem Artikel hingegen sollen andere Möglichkeiten beleuchtet werden, einer Website zu schaden – denn in der Presse und Teilen der SEO-Szene wird oft nur auf schlechten Linkaufbau als Gefahrenpotenzial verwiesen.

 

Duplicate Content

Ein denkbares Potenzial, um einer Website zu schaden, liegt sicherlich darin, deren Inhalte mehrfach zu kopieren und damit dafür zu sorgen, dass die Website wegen Duplicate Content abgewertet wird. In der Vergangenheit hätte das noch deutlich besser funktioniert, aber nach einigen Updates gelingt es Google immer besser, die Quelle und die Kopie von Duplicate Content zu erkennen.

Dennoch ist es sinnvoll, proaktiv nach Websites zu suchen, die den eigenen Content unerlaubterweise kopieren. Dafür bieten sich Dienste wie Copyscape (www.copyscape.com) oder PlagAware (www.plagaware.de) an. Die Durchsetzung eigener Rechtsansprüche ist aber eine ganz andere Sache, wenn die kopierten Websites im Ausland registriert sind. Zumindest sollte ein Betreiber aber eine Meldung an Google schicken, damit die kopierten Websites evtl. aus dem Index entfernt werden (https://www.google.com/webmasters/tools/spamreportform).

 

Zugriff auf die Website

Zunächst: Wer Zugriff (z. B. FTP) auf eine fremde Website hat, kann dieser natürlich unmittelbar schaden. Das ist einfach durch Löschung der Inhalte möglich, kann aber auch viel subtiler geschehen. Wer z. B. eine .htaccess-Datei so erweitert, dass für alle Seiten im HTTP-Header ein Robots-Meta-Tag „noindex“ gesetzt wird, kann dafür sorgen, dass alle Seiten über kurz oder lang aus dem Index entfernt werden. Da dieses Tag nur im HTTP-Header zu sehen ist, ist es in der Regel nur sehr schwer zu entdecken. Gängige Tools prüfen das jedenfalls nur zum Teil.

Es lässt sich aber auch in die robots.txt die Zeile „Disallow: /“ hinzufügen und dann einfach warten, bis die Inhalte ebenfalls aus dem Suchmaschinen-Index verschwinden. Wer auch noch Zugriff zu den Google Webmaster Tools bekommt, kann eine Website sogar innerhalb weniger Stunden komplett aus dem Index entfernen.

Unternehmen sollten also in jedem Fall sichere Passwörter verwenden, regelmäßig die Google Webmaster Tools überprüfen und kritische Dateien wie die robots.txt auf Veränderungen prüfen.

 

Gefahren durch Foren, Blogs & Co.

Wer auf seiner Website auch Elemente hat, zu denen die Community eigene Inhalte beisteuern kann (User Generated Content), kann ebenfalls Probleme bekommen. Bestimmte Systeme sind Spammern durchaus bekannt, so dass man z. B. nach Hinzufügen eines Blogs schnell Spam-Kommentare bekommt. Aber auch nach Hinzufügen eines Community-Systems wie vBulletin muss ein Betreiber nicht lange warten, bis sich hier hunderte Spam-Kommentare wiederfinden.

Kritisch kann das werden, wenn mit diesen Kommentaren auf Websites verlinkt wird, die in die Themengebiete „Porn, Pills + Casino“ gehören. Denn, wer auf solche Websites verlinkt, kann schnell das Vertrauen von Google einbüßen.

Als Gegenmaßnahme sollten vorsichtshalber alle per User Generated Content erzeugten Links Nofollow-Links sein, damit Suchmaschinen diese Links nicht als Ausdruck des Vertrauens werten. Außerdem kann über den Einsatz von Captchas oder durch die Notwendigkeit, für Kommentare registrierter Nutzer zu sein, ein Großteil negativer Inhalte abgeblockt werden.

 

Malware/Hacking

Manchmal werden Websites leider auch gehackt. Hacker hinterlassen dabei oftmals Schadcode auf der Website. Google erkannt das in der Regel sehr schnell und sperrt dann die jeweilige Website bzw. nur Teile davon. Erkennen kann man das in den Suchergebnissen, denn Google gibt massive Warnungen aus, so dass man die Website faktisch nicht mehr über die Google-Suche erreichen kann.

Für die Diagnostik muss man sich in die Google Webmaster Tools begeben und im Anschluss die Website reinigen. Umfangreiche Informationen zum gesamten Prozess finden sich neuerdings bei Google auf der Seite http://www.google.com/webmasters/hacked/.

 

Google Webmaster Tools

Abbildung 1: Schädliche Einstellungen in den Google Webmaster Tools

Oft ist es schwierig, FTP-Zugriff zu einer Website zu bekommen. Da ist es in Einzelfällen einfacher, Zugang zu den Google Webmaster Tools zu erlangen, da hier seltener kryptische Passwörter verwendet werden.

Wer es also mit Ausprobieren in die Google Webmaster Tools schafft, kann dort zumindest ein wenig Schaden anrichten, z. B. durch das Umstellen der geographischen Ausrichtung einer deutschen Website auf Aserbaidschan (siehe Abbildung 1). Das funktioniert nur bei generischen Top-Level-Domains (also z. B. .com oder .net), hat dann aber negative Auswirkungen, die zudem ohne Blick in die Google Webmaster Tools schwer zu finden sind.



Fazit

Es gibt viele Möglichkeiten, einer anderen Website Schaden zuzufügen. Viele erfordern allerdings, dass man Zugriff auf die Website erhält oder dass auf der Website eigene Inhalte hinterlassen werden können. Wer sich also gegen Negative SEO in all seinen Formen wappnen will, muss diese Schwachstellen kennen und sollte sie auch regelmäßig überprüfen.


Über den Autor

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEM-Agentur Bloofusion Germany.

E-Mail: markus@suchradar.de
Markus Hövener (@bloonatic) bei Twitter: Follow bloonatic on Twitter