Screaming Frog SEO Spider: Fünf wichtige Analysen (nicht nur) für Shop-Betreiber

Beitrag aus Ausgabe 73 / August 2018
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Viele SEOs nutzen den Screaming Frog SEO Spider für Analysen. Aber gerade auch für Shop-Betreiber kann das Tool wertvolle Informationen liefern – wenn man denn weiß, wonach man schauen muss.

Die meisten On-Page-Tools sind Cloud-basiert und versuchen eher, komplexe Analysen für den Nutzer verständlich zusammenzufassen. Der Screaming Frog SEO Spider sticht aus dieser Menge etwas heraus: Er muss installiert werden und bemüht sich nicht besonders darum, auch für den Einsteiger auf Anhieb verständliche Informationen zu liefern.

Der Nachteil des Tools ist aber zugleich auch sein Vorteil. Ja, die Eingewöhnungszeit ist vielleicht recht lang, aber dafür kann man so ziemlich jede Information über einen Report erhalten. In diesem Artikel geht es dabei um fünf Analyse-Ansätze, die gerade für Shop-Betreiber typisch sind.

Seminar: Screaming Frog SEO Spider – der Step-by-Step-Guide

Das After-Work-Seminar „Screaming Frog SEO Spider – der Step-by-Step-Guide“ führt in nur drei Stunden in eines der wichtigsten SEO-Tools ein.

Termine:

  • 6. November (Emsdetten, Münsterland)
  • 27. November (Online-Seminar)

Alle Informationen:

http://bloo.link/omc909

Rubriken ohne Texte finden

Viele SEOs empfehlen, dass auf allen Rubrikenseiten auch ein mehr oder weniger umfänglicher Text zu finden sein sollte. Wer aber nach und nach und ohne System Texte erstellt, verliert irgendwann den Überblick. Wo fehlen denn jetzt eigentlich noch Texte?

Dafür bietet der Screaming Frog die mächtige Funktion „Extraction“ (im Menü „Configuration > Custom“). Über sogenannte Extraktoren kann man aus Seiten anhand definierter Regeln Elemente auslesen. In diesem Fall wäre es der Rubrikentext, den man aus dem HTML-Code extrahieren möchte. Theoretisch kann das aber auch jeder andere Bestandteil sein.

Ein Beispiel: Im Onlineshop www.angelplatz.de gibt es auf einigen Rubrikenseiten einen Textblock, der im HTML-Code von „<div class="productlist_text">“ und „</div>“ eingerahmt wird (z. B. auf der Seite https://www.angelplatz.de/zielfischprogramme). Es gibt verschiedene Möglichkeiten, dafür einen Extraktor zu erstellen. In diesem Fall bietet sich XPath an – und zwar über den folgenden Ausdruck (siehe auch Abbildung 1):

//div[@class="productlist_text"]

Dieser Ausdruck bedeutet: Ich suche den Inhalt eines <divs>, bei dem das Attribut „class“ den Wert „productlist_text“ hat. Wenn man nun die Website crawlt, kann man in dem Tab „Custom“ auf die Rubrikentexte zugreifen (siehe Abbildung 2). Man sieht also sehr schnell, wo noch Texte fehlen.

Die Daten kann man dann auch exportieren, um sie z. B. in Excel weiterzuverarbeiten. Dort könnten dann weitere Analysen durchgeführt werden. So könnte man die Anzahl der Wörter ermitteln und feststellen, ob der Text vom Umfang her den eigenen Ansprüchen genügt.

Produktdetailseiten ohne Impressions finden

Spannend ist beim Screaming Frog SEO Spider auch die Möglichkeit, auf Daten aus der Google Search Console und aus Google Analytics zuzugreifen. Das kann dann nützlich sein, wenn man ermitteln möchte, welche Produktdetailseiten keine oder nur wenige Zugriffe über Suchmaschinen hatten.

Die meisten Tools – so auch die Google Search Console und Google Analytics – zeigen standardmäßig immer die Sieger weit oben. Und: Man kann in Google Analytics gar nicht feststellen, ob eine Seite gar keine Abrufe hatte, weil Analytics eine Seite dann gar nicht anzeigt.

Um diese Informationen zu ermitteln, sollte man z. B. eine XML-Sitemap mit allen Produktdetailseiten durch den SEO Spider crawlen lassen und mit Google Analytics verbinden, damit man auch jeweils die Klicks angezeigt bekommt. Theoretisch funktioniert das auch mit den Daten aus der Google Search Console. Die Daten sind aber hinsichtlich der Anzahl der URLs begrenzt. Wer also viele Tausende Seiten hat, wird nicht für alle Seiten verlässliche Daten erhalten können.

Die Verbindung zu Google Analytics ist über die Funktion „Configuration > API Access > Google Analytics“ schnell hergestellt. Wichtig ist dabei vor allem, dass ein hinreichend großer Zeitraum und auch ein passendes Segment (nur organische Suchmaschinen-Nutzer) ausgewählt werden.

Im Tab „Analytics“ erhält man dann alle gewünschten Daten. Dort gibt es auch einige interessante Filter wie „Sessions above 0“ (es gab mindestens einen Suchmaschinen-Einstieg für die jeweilige Seite) und „No GA Data“ (es gab keinen gemessenen Suchmaschinen-Einstieg). Wer also wissen möchte, welche Seiten überhaupt keinen Suchmaschinen-Besucher hatten, wählt die Option „No GA Data“ (siehe Abbildung 3). Unten rechts gibt es übrigens immer eine Übersicht über die Verteilung von „Sessions above 0“ und „No GA Data“. Wie in Abbildung 3 zu sehen ist, kann es durchaus vorkommen, dass die Mehrheit der Seiten keine Besucher hat.

Danach muss es in die Analyse gehen: Warum haben die jeweiligen Seiten überhaupt keine oder nur wenige Besucher? Fehlt es an den richtigen Suchbegriffen? Oder sind dies Produkte, die nicht aktiv gesucht werden, die aber für die Shop-Besucher trotzdem sinnvoll sind? Oder interessieren sich nicht mal die Shop-Besucher für die Produkte?

Gerade beim ersten Fall ist dann SEO gefragt. Häufig gibt es Produkte, die nicht auf Suchbegriffe abgestimmt sind, sondern auf Eigennamen abzielen („Kinderbett Egon“), nach denen aber niemand aktiv sucht.

Unverschlüsselte Elemente finden

Die überwiegende Mehrheit der Shops hat sicherlich schon vor einiger Zeit auf HTTPS umgestellt. Es kann aber immer noch passieren, dass in einigen wenigen Seiten Elemente (Bilder, Iframes …) per HTTP eingebunden werden. Da das in den allermeisten Fällen zu einer Browser-Warnung führt, sollten solche Fälle eigentlich nicht vorkommen.

Der SEO Spider kann auch solche Fälle aufdecken – über den Report „Insecure Content“. Die Website muss zunächst vollständig gecrawlt werden, damit alle Seiten geprüft werden. Der Report ist dann im SEO Spider nicht abrufbar, sondern muss erst exportiert werden (Excel-Format oder CSV).

Die unsicheren Inhalte müssen auch nicht immer aus dem Shop selbst stammen. Vor allem ein Blog oder ein Magazin-Bereich sind oft gute Kandidaten, da dort manchmal noch sehr alte Beiträge zu finden sind, in die „damals“ HTTP-URLs eingefügt wurden. Ein Beispiel findet sich in Abbildung 4: Im Blog von The British Shop (https://blog.the-british-shop.de/) gibt es einige Einbindungen über HTTP. Die typischen Browser beschweren sich in diesem Fall nicht. Dennoch sollten solche Fehler vorsichtshalber korrigiert werden.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 73 von August 2018 mit dem Titelthema „Google Ads Automatisierung: Skripte, Gebotsstrategien und dynamische Anzeigen“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen