Screaming Frog SEO Spider: Auf Google Analytics und die Search Console zugreifen

Beitrag aus Ausgabe 59 / April 2016
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Man kann den Screaming Frog SEO Spider mit zwei Google-Tools verbinden. Aber warum sollte man das tun? Und welches der beiden Tools sollte man wählen? Ein kurzer Überblick und vier konkrete Fälle.

Wenn man den Screaming Frog mit Google Analytics und/oder der Google Search Console verbindet, kann man die URLs der eigenen Website mit realen Traffic- und Nutzungsdaten koppeln. Das ist in vielen Fällen spannend und zeigt oft großes Optimierungspotenzial auf.

Es ist aber wie bei vielen anderen Tools auch: Man benötigt zunächst die richtige Fragestellung. Wonach soll man in seinen Daten denn nun suchen? Bei der Entwicklung dieser Fragen hilft der SEO Spider leider nicht – er ist nur ein sehr effizientes Werkzeug, um die Fragen zu beantworten. Dieser Artikel zeigt daher vier konkrete Fälle für die Nutzung des Tools auf.

Zunächst ist aber die Frage wichtig: Wann sollte man auf die Daten aus Google Analytics und wann auf die aus der Google Search Console zurückgreifen?

Google Search Console

Zunächst ist die Google Search Console natürlich die erste und einzige Wahl, wenn kein Zugang zu Google Analytics vorliegt. Wer also z. B. alternative Tracking-Tools wie Econda einsetzt, kann ausschließlich die Daten aus der Google Search Console nutzen.

Man muss wissen, dass es bei diesen Daten zwei große Einschränkungen gibt. Der Screaming Frog SEO Spider kann nur auf 5 000 Ergebnisse zurückgreifen. Bei kleineren Sites ist das sicherlich kein Problem, bei größeren aber durchaus. Auch sind die Ergebnisse auf die letzten 90 Tage beschränkt. Gerade bei saisonalen Angeboten sind die Daten dann leider nicht aussagekräftig.

Positiv ist in jedem Fall zu sehen, dass die Google Search Console auch Daten bereitstellt, die man ausschließlich über dieses Tool erhalten kann: die Anzahl der Impressions (wie oft ist meine Website in den Suchergebnissen dargestellt worden?), die Suchergebnis-Position und die CTR (Klickrate in den Suchergebnissen). Wer diese Daten benötigt, greift daher auf die Google Search Console zurück.

Google Analytics

Google Analytics bietet den klaren Vorteil, dass dort deutlich mehr Datenpunkte (max. 100 000) zur Verfügung gestellt werden. Außerdem kann der Screaming Frog SEO Spider auf jede Analytics-Metrik zugreifen. Es gibt zwar die Einschränkung, dass auf maximal 30 Metriken zugleich zugegriffen werden kann, aber das wird in der Praxis niemand ausreizen können.

Verbindung herstellen

Nach der Entscheidung, welches der beiden Tools man nutzen möchte, muss man dieses mit dem SEO Spider verbinden. Das ist extrem einfach: Account eintragen, Verbindung auf Google-Seite bestätigen – fertig. Zusätzlich kann man weitere Daten einstellen, wobei vor allem die „Date Range“ wichtig ist, also der Zeitraum der abgefragten Daten.

Bei Google Analytics muss man zudem noch ein Segment auswählen. Damit ist die Segmentierung von Nutzern in Google Analytics gemeint. Wer also den Screaming Frog nutzt, um in Bezug auf den Google-Index zu forschen, sollte hier ein Segment wie „organischer Suchtraffic“ wählen. Dabei ist natürlich zu beachten, dass dieses Segment auch trennscharf formuliert wird, dass man also auch wirklich nur auf „Google / organic“ und nicht auch auf „Bing / organic“ zugreift. In der Praxis ist das wegen des geringen Traffic-Anteils von Bing nicht extrem wichtig, kann die Daten aber doch verfälschen.

Außerdem kann man – wie in Abbildung 1 zu sehen ist – bestimmte Metriken aus Google Analytics auswählen. Je nach Fragestellung kann man sich also Daten zu Conversions, zum Nutzerverhalten (Absprungrate, Besuchsdauer ...) oder auch zur Ladegeschwindigkeit importieren. Die Metriken „Sessions“ (Anzahl der Besucher) und „Bounce Rate“ (Absprungrate) werden übrigens immer geholt, auch wenn man diese nicht benötigt.

Was kann man damit machen?

Man erkennt schon: Die Möglichkeiten sind endlos. Im Prinzip benötigt man nur eine gute Fragestellung, um diese auch beantworten zu können. Zum Teil benötigt man noch ein wenig Excel-Hilfe, denn Filtern kann man im Screaming Frog derzeit noch nicht. Der Export funktioniert aber insgesamt sehr gut, sodass dem nichts im Wege steht.

Im Folgenden werden vier konkrete Fälle vorgestellt, wie man durch die Nutzung der Google Search Console oder von Google Analytics aufschlussreiche Erkenntnisse erhalten kann.

Fall 1: „Verlorene Seiten“ finden

Nach einem Crawl der Website kann man nach sogenannten „Orphan Pages“ suchen lassen. Das sind Seiten, die beim Crawlen der Website nicht gefunden wurden, also intern nicht verlinkt sind, die aber trotzdem laut Google Analytics oder Google Search Console Besucher haben. Das können dann z. B. Landing Pages sein, die nur über AdWords angesprungen werden, aber in Bezug auf SEO wirklich irrelevant sind. Man stößt aber auch oft auf Fälle, bei denen z. B. uralte PDF-Dateien Rankings und Traffic generieren, die mehrere Relaunches überlebt haben.

Um solche Seiten zu finden, muss man nur auf „Reports > GA & GSC Not Matched“ klicken. Der Report wird dann als Excel-Datei bereitgestellt. Nun muss man die Ergebnisse durcharbeiten und prüfen, ob es sich jeweils um Inhalte handelt, die man eigentlich innerhalb der Website verlinken sollte, um damit deren interne Verlinkung und in der Folge auch die Rankings zu verbessern.

Fall 2: Welchen Seiten sind relevant?

Im List-Modus („Mode > List“) kann man eine XML-Sitemap importieren. Die in dieser Sitemap genannten URLs werden dann Seite für Seite heruntergeladen. Durch den Abgleich mit den Daten (Google Analytics oder Google Search Console) kann man leicht herausfinden, wie viele der in der XML-Sitemap genannten Seiten eigentlich wirklich in Bezug auf SEO relevant sind.

Über die beste Ausgangsposition verfügt dabei derjenige Website-Betreiber, der über nicht nur eine XML-Sitemap verfügt, sondern verschiedene Sitemap-Dateien für unterschiedliche Seitentypen bereitstellt. Er kann diese Dateien nach und nach durchprobieren. Eventuell kommt er zu dem Schluss, dass bestimmte Seitentypen in Bezug auf Rankings oder Umsatz überhaupt nicht relevant sind und somit auch von der Indexierung ausgeschlossen werden können.

Fall 3: Optimierung der internen Verlinkung

Beim Crawlen einer Website speichert der Screaming Frog SEO Spider viele Informationen zur internen Verlinkung, vor allem „Inlinks“ (über wie viele interne Verlinkungen verfügt eine bestimmte Seite?) und „Level“ (wie viele Klicks ist eine bestimmte Seite von der Startseite entfernt?).

Diese Informationen – in Kombination mit den Klick- oder auch Umsatzdaten – kann man nutzen, um sich Gedanken zur internen Verlinkung zu machen. Also: Gibt es Seiten, die unterdurchschnittlich viele Inlinks und eine hohe Klicktiefe haben, aber trotzdem schon überdurchschnittlich viel Traffic oder Umsatz generieren? Dann könnte man nämlich die interne Verlinkung verbessern, indem man bestimmte Seiten öfter von starken Seiten (z. B. Startseite oder Rubrikenseite erster Ordnung) verlinkt.

Fall 4: Potenziale zur textlichen Optimierung finden

In den Crawler-Optionen (Configuration > Spider > Limits > Limit Search Depth) kann man einstellen, dass nur Seiten bis zu einer bestimmten Klicktiefe geladen werden sollen. Wer dort also eine 1 einträgt, wird nur die Startseite (Klicktiefe 0) und alle von dort aus verlinkten Seiten (Klicktiefe 1) erhalten.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 59 von April 2016 mit dem Titelthema „SEO-Analysen selber durchführen“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen