SEO-Rückblick 2018: Welche wichtigen Änderungen gab es?

Beitrag aus Ausgabe 75 / Dezember 2018
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Auch das SEO-Jahr 2018 ist wieder schnell vorübergegangen. Was ist alles passiert? Welche wichtigen Änderungen und Trends gibt es? Und wohin geht die Google-Reise in der Zukunft? Ein Überblick.

Snippets

Ende 2017 hat Google eine recht große Änderung an den Suchergebnissen vorgenommen: Das Snippet (der Textausschnitt) umfasste nun in der Regel nicht mehr ca. 160 Zeichen, stattdessen wurde die doppelte Menge (ca. 320 Zeichen) angezeigt. Das brachte SEOs dazu, die Meta Descriptions, aus denen das Snippet primär bezogen wird, auf die neue Länge anzupassen.

Leider ruderte Google schon ein halbes Jahr später (Mai 2018) zurück zur alten Darstellung. Die Grenzwerte (ca. 160 Zeichen auf dem Desktop, ca. 130 Zeichen für Mobilgeräte) sind also wieder da, wo sie vor November 2017 lagen.

Auf die Kritik von SEOs reagierte Google dann etwas ungeschickt und wies darauf hin, dass man ja nie explizit gesagt hätte, dass nun alle Meta Descriptions an die neuen Grenzen anzupassen seien (twitter.com/dannysullivan/status/996101783150735360):

„We specifically did not give advice to change meta description tags nor a character count to help prevent people from making unnecessary changes.“

Featured Snippets

Auch bei den beliebten Featured Snippets hat sich einiges getan. So gibt es nun in den Suchergebnissen aufklappbare Bereiche, die mehrere Featured Snippets zu ähnlichen Suchanfragen anzeigen (siehe Abbildung 1).

Wenn man Googles Ankündigungen Glauben schenkt (siehe www.blog.google/products/search/helping-you-along-your-search-journeys/), wird es bald mehrere solcher Formate geben, bei denen nicht mehr nur ein einzelnes Featured Snippet angezeigt wird. Vielmehr bündelt Google dann verschiedene Featured Snippets zu einem thematischen Block (siehe Abbildung 2).

Diskussionen wird das mit Sicherheit immer wieder auslösen, denn potenziell führt das immer mehr zu einem „no click“: Google-Nutzer erhalten alle relevanten Informationen direkt im Suchergebnis und müssen sich gar nicht mehr zur jeweiligen Website durchklicken.

Bildersuche

Umfangreiche Änderungen gab es auch bei der Google Bildersuche. Das passt grundsätzlich auch zu der von Google ausgegeben strategischen Ausrichtung (siehe www.blog.google/products/search/making-visual-content-more-useful-search/):

„People coming to Google Images today are looking to find information, or for help doing something – not just to see an image.“

Die Änderungen waren zunächst optischer Natur: Das Layout wurde etwas luftiger. Zudem wird jetzt unterhalb der Bilder Kontext angezeigt. Für den Kontext wird derzeit der Seitentitel der jeweiligen Seite verwendet, was nochmal ein Indiz dafür ist, dass Google Bilder und die jeweilige Seite immer im Einklang sieht.

Darüber hinaus gab es aber auch wichtige Änderungen auf Algorithmus-Ebene:

1. Bilder-Position: Bilder, die sich weit oben auf einer Seite befinden, ranken besser als Bilder, die ganz unten eingebunden sind.

2. Aktualität: „Fresher Content“ soll von Google priorisiert werden, d. h. dass neue Bilder und neue Seiten bevorzugt werden.

3. Autorität: Auch die Autorität der jeweiligen Seite und Website soll deutlich mehr Einfluss haben. Eine Website, die für Keywords wie „fliesen legen“ gut gefunden wird, kann also auch bessere Rankings für entsprechende Bildersuchen erwarten.

Google Search Console

Die Google Search Console, die mehr als ein Jahr lang überarbeitet wurde und deren neue Version als separate Beta verfügbar war, wurde im September 2018 zur offiziellen Google Search Console. Die alte Version ist noch ein paar Monate lang verfügbar, bevor sie abgeschaltet wird. Notwendig wird das vor allem, weil noch nicht alle Funktionen in der neuen Google Search Console verfügbar sind (z. B. „Abruf wie durch Googlebot“).

Die neue Google Search Console zeichnet sich vor allem durch einige Änderungen aus:

1. Statt der bislang 90 Tage kann man nun auf 16 Monate Suchdaten zurückgreifen (ehemals „Suchanalyse“, jetzt „Leistung“).

2. Grundsätzlich gibt es mehr Workflow-Elemente. So kann man als fehlerhaft erkannte URLs direkt überprüfen lassen.

3. Die Struktur wurde komplett überarbeitet. Es wurden aber nicht nur Tools/Reports verschoben oder verschmolzen – es gibt auch einige neue Funktionen, z. B. den Report „URL-Prüfung“, um für eine konkrete URL Einblick in den Index zu bekommen.

4. XML-Sitemaps sind stärker integriert. Vormals konnte man nur im gleichnamigen Report Daten einsehen. Jetzt kann man z. B. auch Probleme zur Index-Abdeckung direkt auf die XML-Sitemaps beziehen. Also: Welche Fehler gibt es bei den wirklich wichtigen Seiten?

5. Es gibt deutlich mehr und differenzierte Einblicke in den Crawling- und Indexierungsprozess. Anstelle der „Crawling-Fehler“ gibt es nun viel mehr einzelne Aspekte, sodass man Probleme der eigenen Website viel besser und schneller erkennen kann.

Update der Quality Rater Guidelines

In diesem Jahr gab es einige sogenannte Core Updates – grundlegende Justierungen im Google-Algorithmus, die die Suchergebnisse oft ordentlich durchgeschüttelt haben. Website-Betreiber fragen sich bei einiger negativen Entwicklung dann oft, was sie falsch gemacht haben und was sie anders machen können. Danny Sullivan von Google hat dazu das Folgende auf Twitter mitgeteilt (siehe https://twitter.com/dannysullivan/status/1024771615265980417):

„Want to do better with a broad change? Have great content. Yeah, the same boring answer. But if you want a better idea of what we consider great content, read our raters guidelines.“

Danny Sullivan lenkt hier also das Interesse auf die Quality Rater Guidelines. Dieses Dokument (https://static.googleusercontent.com/media/www.google.com/de//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf) definiert, wie Quality Rater – von Google angestellte Personen – manuell Suchergebnisse bewerten müssen. Dabei geht es nicht darum, dass diese Bewertungen direkt in die Rankings einfließen. Vielmehr ist es so, dass die Daten der Quality Rater helfen, Algorithmus-Änderungen vorab zu bewerten (siehe twitter.com/dannysullivan/status/1024905915114221568):

„The data helps us understand how updates seem to be performing. It's like having someone review the food in your restaurant. But they don't go into the kitchen & make the food. Rater data isn't a component of the algorithm.“

In den Quality Rater Guidelines stehen also Anforderungen, die Google algorithmisch durchsetzen möchte. Wer also eine Website langfristig verbessern möchte, sollte sich an die Guidelines – ein immerhin fast 200 Seiten starkes Dokument – halten.

2018 gab es nun eine Aktualisierung der Guidelines. Eine komplette Aufarbeitung aller Änderungen gibt es online (www.thesempost.com/google-search-quality-rater-guidelines-updated/). Im Wesentlichen haben sich aber zwei Sachen geändert.

Neu ist der Begriff des „Beneficial Purpose“, also: Hilft die Seite dem Nutzer wirklich? In den Quality Rater Guidelines steht hierzu z. B.:

„Websites or pages without some sort of beneficial purpose, including pages that are created with no attempt to help users […], should receive the lowest rating.“

Ebenfalls wichtig ist die Tatsache, dass ein Fokus auf den sogenannten „Creator“ hinzugefügt wurde – also den Autor eines Beitrags. In der Vergangenheit wurde in der Regel nur z. B. auf die Vertrauenswürdigkeit der Website abgezielt. Jetzt heißt es aber zusätzlich (in Bezug auf abzuwertende Inhalte):

„The creator of the Main Content does not have adequate expertise in the topic of the Main Content, e. g. a tax form instruction video made by someone with no clear expertise in tax preparation.“

Gerade im Bereich der sogenannten YMYL-Themen („Your money or your life“), also Themen, bei denen Inhalte einen Effekt auf Wohlstand oder Gesundheit haben können, legt Google die Latte immer höher. So fällt mehrmals der Begriff der „formal expertise“. Also: Der Autor, der z. B. über Rechtsthemen schreibt, sollte auch eine formale Qualifikation dafür haben (also in diesem Fall Rechtsanwalt sein).

Page Speed

Seit Juli 2018 werden zu langsame Websites in der mobilen Suche abgewertet – das sogenannte „Speed Update“. In der Ankündigung (siehe webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html) heißt es u. a.:

„The ‚Speed Update‘ […] will only affect pages that deliver the slowest experience to users.“

Seitdem ist das Thema der Seitenladegeschwindigkeit deutlich wichtiger geworden. Vor allem das kostenlose Google-Tool PageSpeed Insights bietet seit diesem Jahr die Möglichkeit, über die Anfrage „origin:https://www.website.de/“ auf reale Nutzerdaten aus dem „Chrome User Experience Report“ zuzugreifen (siehe Abbildung 3).

JavaScript

Websites setzen immer auf JavaScript – und das kann durchaus Probleme in Bezug auf SEO generieren. Natürlich hat das auch Google erkannt und hilft Website-Betreibern dabei, eventuelle Probleme in den Griff zu kriegen.

So gab es 2018 vor allem zwei konkrete neue Empfehlungen. In Bezug auf „Lazy Loading“ (das dynamische Nachladen von Bildern) gibt es nun die Empfehlung, Image-Tags in den Noscript-Bereich zu verlegen, damit Google die Bilder auf diesem Weg erkennen kann. Mehr Informationen bietet Google auf der Seite https://developers.google.com/web/fundamentals/performance/lazy-loading-guidance/images-and-video/.

Und auch das „Dynamic Rendering“ bringt Probleme. Wenn Websites sehr massiv auf JavaScript setzen, kann Google damit in vielen Fällen nichts mehr anfangen – auch wenn Google grundsätzlich in der Lage ist, JavaScript auszuführen. Mit Dynamic Rendering kann man Google dann eine statische Seite anbieten, während Nutzer die „normale“ JavaScript-lastige Website erhalten. Auch hierzu gibt es jetzt mehr Informationen: https://developers.google.com/search/docs/guides/dynamic-rendering.

Markup

Auch wenn Google zeitweilig kommuniziert hat, dass sie am liebsten auf strukturierte Daten verzichten und einzelne Attribute über künstliche Intelligenz erkennen würden: Markup wird noch auf sehr lange Zeit wichtig werden, um Google gezielt Zugriff auf die Semantik von Inhalten zu geben.

Spannend? Jetzt Artikel zu Ende lesen!

Lesen Sie den Artikel weiter in unserer suchradar Ausgabe 75 von Dezember 2018 mit dem Titelthema „Webanalyse für Einsteiger: Von Anfang an alles richtig machen“.

Kostenloses PDF-Magazin bestellen Online weiterlesen? Einfach kostenlos für den Newsletter anmelden. Kostenpflichtiges Print-Abo bestellen