SEO-Rückblick 2018: Welche wichtigen Änderungen gab es?

Beitrag aus Ausgabe 75 / Dezember 2018
SEO
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Auch das SEO-Jahr 2018 ist wieder schnell vorübergegangen. Was ist alles passiert? Welche wichtigen Änderungen und Trends gibt es? Und wohin geht die Google-Reise in der Zukunft? Ein Überblick.

Snippets

Ende 2017 hat Google eine recht große Änderung an den Suchergebnissen vorgenommen: Das Snippet (der Textausschnitt) umfasste nun in der Regel nicht mehr ca. 160 Zeichen, stattdessen wurde die doppelte Menge (ca. 320 Zeichen) angezeigt. Das brachte SEOs dazu, die Meta Descriptions, aus denen das Snippet primär bezogen wird, auf die neue Länge anzupassen.

Leider ruderte Google schon ein halbes Jahr später (Mai 2018) zurück zur alten Darstellung. Die Grenzwerte (ca. 160 Zeichen auf dem Desktop, ca. 130 Zeichen für Mobilgeräte) sind also wieder da, wo sie vor November 2017 lagen.

Auf die Kritik von SEOs reagierte Google dann etwas ungeschickt und wies darauf hin, dass man ja nie explizit gesagt hätte, dass nun alle Meta Descriptions an die neuen Grenzen anzupassen seien (twitter.com/dannysullivan/status/996101783150735360):

„We specifically did not give advice to change meta description tags nor a character count to help prevent people from making unnecessary changes.“

Featured Snippets

Auch bei den beliebten Featured Snippets hat sich einiges getan. So gibt es nun in den Suchergebnissen aufklappbare Bereiche, die mehrere Featured Snippets zu ähnlichen Suchanfragen anzeigen (siehe Abbildung 1).

Wenn man Googles Ankündigungen Glauben schenkt (siehe www.blog.google/products/search/helping-you-along-your-search-journeys/), wird es bald mehrere solcher Formate geben, bei denen nicht mehr nur ein einzelnes Featured Snippet angezeigt wird. Vielmehr bündelt Google dann verschiedene Featured Snippets zu einem thematischen Block (siehe Abbildung 2).

Diskussionen wird das mit Sicherheit immer wieder auslösen, denn potenziell führt das immer mehr zu einem „no click“: Google-Nutzer erhalten alle relevanten Informationen direkt im Suchergebnis und müssen sich gar nicht mehr zur jeweiligen Website durchklicken.

Bildersuche

Umfangreiche Änderungen gab es auch bei der Google Bildersuche. Das passt grundsätzlich auch zu der von Google ausgegeben strategischen Ausrichtung (siehe www.blog.google/products/search/making-visual-content-more-useful-search/):

„People coming to Google Images today are looking to find information, or for help doing something – not just to see an image.“

Die Änderungen waren zunächst optischer Natur: Das Layout wurde etwas luftiger. Zudem wird jetzt unterhalb der Bilder Kontext angezeigt. Für den Kontext wird derzeit der Seitentitel der jeweiligen Seite verwendet, was nochmal ein Indiz dafür ist, dass Google Bilder und die jeweilige Seite immer im Einklang sieht.

Darüber hinaus gab es aber auch wichtige Änderungen auf Algorithmus-Ebene:

1. Bilder-Position: Bilder, die sich weit oben auf einer Seite befinden, ranken besser als Bilder, die ganz unten eingebunden sind.

2. Aktualität: „Fresher Content“ soll von Google priorisiert werden, d. h. dass neue Bilder und neue Seiten bevorzugt werden.

3. Autorität: Auch die Autorität der jeweiligen Seite und Website soll deutlich mehr Einfluss haben. Eine Website, die für Keywords wie „fliesen legen“ gut gefunden wird, kann also auch bessere Rankings für entsprechende Bildersuchen erwarten.

Google Search Console

Die Google Search Console, die mehr als ein Jahr lang überarbeitet wurde und deren neue Version als separate Beta verfügbar war, wurde im September 2018 zur offiziellen Google Search Console. Die alte Version ist noch ein paar Monate lang verfügbar, bevor sie abgeschaltet wird. Notwendig wird das vor allem, weil noch nicht alle Funktionen in der neuen Google Search Console verfügbar sind (z. B. „Abruf wie durch Googlebot“).

Die neue Google Search Console zeichnet sich vor allem durch einige Änderungen aus:

1. Statt der bislang 90 Tage kann man nun auf 16 Monate Suchdaten zurückgreifen (ehemals „Suchanalyse“, jetzt „Leistung“).

2. Grundsätzlich gibt es mehr Workflow-Elemente. So kann man als fehlerhaft erkannte URLs direkt überprüfen lassen.

3. Die Struktur wurde komplett überarbeitet. Es wurden aber nicht nur Tools/Reports verschoben oder verschmolzen – es gibt auch einige neue Funktionen, z. B. den Report „URL-Prüfung“, um für eine konkrete URL Einblick in den Index zu bekommen.

4. XML-Sitemaps sind stärker integriert. Vormals konnte man nur im gleichnamigen Report Daten einsehen. Jetzt kann man z. B. auch Probleme zur Index-Abdeckung direkt auf die XML-Sitemaps beziehen. Also: Welche Fehler gibt es bei den wirklich wichtigen Seiten?

5. Es gibt deutlich mehr und differenzierte Einblicke in den Crawling- und Indexierungsprozess. Anstelle der „Crawling-Fehler“ gibt es nun viel mehr einzelne Aspekte, sodass man Probleme der eigenen Website viel besser und schneller erkennen kann.

Update der Quality Rater Guidelines

In diesem Jahr gab es einige sogenannte Core Updates – grundlegende Justierungen im Google-Algorithmus, die die Suchergebnisse oft ordentlich durchgeschüttelt haben. Website-Betreiber fragen sich bei einiger negativen Entwicklung dann oft, was sie falsch gemacht haben und was sie anders machen können. Danny Sullivan von Google hat dazu das Folgende auf Twitter mitgeteilt (siehe https://twitter.com/dannysullivan/status/1024771615265980417):

„Want to do better with a broad change? Have great content. Yeah, the same boring answer. But if you want a better idea of what we consider great content, read our raters guidelines.“

Danny Sullivan lenkt hier also das Interesse auf die Quality Rater Guidelines. Dieses Dokument (https://static.googleusercontent.com/media/www.google.com/de//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf) definiert, wie Quality Rater – von Google angestellte Personen – manuell Suchergebnisse bewerten müssen. Dabei geht es nicht darum, dass diese Bewertungen direkt in die Rankings einfließen. Vielmehr ist es so, dass die Daten der Quality Rater helfen, Algorithmus-Änderungen vorab zu bewerten (siehe twitter.com/dannysullivan/status/1024905915114221568):

„The data helps us understand how updates seem to be performing. It's like having someone review the food in your restaurant. But they don't go into the kitchen & make the food. Rater data isn't a component of the algorithm.“

In den Quality Rater Guidelines stehen also Anforderungen, die Google algorithmisch durchsetzen möchte. Wer also eine Website langfristig verbessern möchte, sollte sich an die Guidelines – ein immerhin fast 200 Seiten starkes Dokument – halten.

2018 gab es nun eine Aktualisierung der Guidelines. Eine komplette Aufarbeitung aller Änderungen gibt es online (www.thesempost.com/google-search-quality-rater-guidelines-updated/). Im Wesentlichen haben sich aber zwei Sachen geändert.

Neu ist der Begriff des „Beneficial Purpose“, also: Hilft die Seite dem Nutzer wirklich? In den Quality Rater Guidelines steht hierzu z. B.:

„Websites or pages without some sort of beneficial purpose, including pages that are created with no attempt to help users […], should receive the lowest rating.“

Ebenfalls wichtig ist die Tatsache, dass ein Fokus auf den sogenannten „Creator“ hinzugefügt wurde – also den Autor eines Beitrags. In der Vergangenheit wurde in der Regel nur z. B. auf die Vertrauenswürdigkeit der Website abgezielt. Jetzt heißt es aber zusätzlich (in Bezug auf abzuwertende Inhalte):

„The creator of the Main Content does not have adequate expertise in the topic of the Main Content, e. g. a tax form instruction video made by someone with no clear expertise in tax preparation.“

Gerade im Bereich der sogenannten YMYL-Themen („Your money or your life“), also Themen, bei denen Inhalte einen Effekt auf Wohlstand oder Gesundheit haben können, legt Google die Latte immer höher. So fällt mehrmals der Begriff der „formal expertise“. Also: Der Autor, der z. B. über Rechtsthemen schreibt, sollte auch eine formale Qualifikation dafür haben (also in diesem Fall Rechtsanwalt sein).

Page Speed

Seit Juli 2018 werden zu langsame Websites in der mobilen Suche abgewertet – das sogenannte „Speed Update“. In der Ankündigung (siehe webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html) heißt es u. a.:

„The ‚Speed Update‘ […] will only affect pages that deliver the slowest experience to users.“

Seitdem ist das Thema der Seitenladegeschwindigkeit deutlich wichtiger geworden. Vor allem das kostenlose Google-Tool PageSpeed Insights bietet seit diesem Jahr die Möglichkeit, über die Anfrage „origin:https://www.website.de/“ auf reale Nutzerdaten aus dem „Chrome User Experience Report“ zuzugreifen (siehe Abbildung 3).

JavaScript

Websites setzen immer auf JavaScript – und das kann durchaus Probleme in Bezug auf SEO generieren. Natürlich hat das auch Google erkannt und hilft Website-Betreibern dabei, eventuelle Probleme in den Griff zu kriegen.

So gab es 2018 vor allem zwei konkrete neue Empfehlungen. In Bezug auf „Lazy Loading“ (das dynamische Nachladen von Bildern) gibt es nun die Empfehlung, Image-Tags in den Noscript-Bereich zu verlegen, damit Google die Bilder auf diesem Weg erkennen kann. Mehr Informationen bietet Google auf der Seite https://developers.google.com/web/fundamentals/performance/lazy-loading-guidance/images-and-video/.

Und auch das „Dynamic Rendering“ bringt Probleme. Wenn Websites sehr massiv auf JavaScript setzen, kann Google damit in vielen Fällen nichts mehr anfangen – auch wenn Google grundsätzlich in der Lage ist, JavaScript auszuführen. Mit Dynamic Rendering kann man Google dann eine statische Seite anbieten, während Nutzer die „normale“ JavaScript-lastige Website erhalten. Auch hierzu gibt es jetzt mehr Informationen: https://developers.google.com/search/docs/guides/dynamic-rendering.

Markup

Auch wenn Google zeitweilig kommuniziert hat, dass sie am liebsten auf strukturierte Daten verzichten und einzelne Attribute über künstliche Intelligenz erkennen würden: Markup wird noch auf sehr lange Zeit wichtig werden, um Google gezielt Zugriff auf die Semantik von Inhalten zu geben.

Hinsichtlich der von Google unterstützten Markups gab es einige Änderungen. So hat Google das Markup „Speakable“ in seine Dokumentation aufgenommen (developers.google.com/search/docs/data-types/speakable). Die Freude der SEO-Community war nicht zu überhören, weil das Markup etwas mit Voice Search zu tun hat. Leider nur betrifft das Markup nur Inhalte in den USA und dort auch nur die, die in Google News gelistet sind. Die Zielgruppe ist also noch extrem klein – was sich aber natürlich in Zukunft ändern kann. Wer also Inhalte per „Speakable“ auszeichnen möchte, sollte die oben verlinkte Dokumentation lesen:

  • „identifies sections within an article or webpage that are best suited for audio playback“
  • „we recommend around 20–30 seconds of content […], or roughly two to three sentences“

Neu ist auch, dass es Markups für FAQs, Q&A und How-Tos gibt (siehe auch searchengineland.com/google-confirms-new-faqs-qa-and-how-tos-for-search-results-snippets-303116). Wer solche Inhalte hat, sollte also auch das entsprechende Markup nutzen, um von besseren Einblendungen in den Suchergebnissen zu profitieren.

Google My Business

Auch bei Google My Business (lokale Google-Listings) hat sich einiges getan. So kann man in dem Tool jetzt auch Suchanfragen abrufen, die zu einer Anzeige oder zu einem Klick geführt haben (ähnlich wie „Leistung“ in der Google Search Console). Auch können Unternehmen viele neue Attribute (z. B. Unternehmen ist von Frauen oder Familien geführt) setzen, Videos hochladen oder sogar Dienstleistungen und Produkte definieren, die dann im lokalen Kontext angezeigt werden.

Tools

In der SEO-Branche gibt es immer wieder neue Tools und Updates der bekannten Werkzeuge. Vor allem der Screaming Frog SEO Spider hat 2018 deutlich zugelegt und kann nun z. B. auch „Scheduled Crawls“ (Crawls, die regelmäßig zu bestimmten Zeitpunkten gestartet werden) oder auch die Visualisierung von Link-Graphen. Es ist schon insgesamt sehr beeindruckend, mit welchem Tempo sich das Tool weiterentwickelt und wie gut sich die Entwickler an den echten Bedürfnissen von SEOs orientieren.

Mit Sitebulb etabliert sich übrigens eine interessante Alternative am Markt. Der Crawler, der ebenfalls installiert werden muss, ist deutlich grafischer und einsteigerfreundlicher als der Frog. Vor allem das Hint-System – konkrete Empfehlungen für Verbesserungen (siehe Abbildung 4) – ist wohl gerade für Einsteiger eine gute Hilfe.

Interessant ist auch, dass vor allem im Bereich „Content Creation“ (Erstellung von Inhalten) hinsichtlich der Tool-Unterstützung viel getan wird. Tools wie SEOlyze, PageRangers, Ryte Content Success, Searchmetrics Content Experience oder TermLabs helfen bei unterschiedlichen Fragestellungen rund um Content (Recherche relevanter Themen, Erstellung der Briefings, Übergabe an Autoren …).

Ausblick

Wer wissen möchte, in welche Richtung sich Google hinsichtlich der Suchfunktionalität weiterentwickelt, sollte auf jeden Fall die Beiträge lesen, die Google hierzu im September veröffentlicht hat (siehe www.blog.google/products/search/improving-search-next-20-years/):

1. „The shift from answers to journeys“: Google hat verstanden, dass eine Suche aus vielen Suchanfragen bestehen kann. So soll es zukünftig „Activity Cards“ und „Collections“ geben, um besser den Überblick zu behalten.

2. „The shift from queries to providing a queryless way to get to information“: Google ist klassisch suchgetrieben, liefert also Suchergebnisse als Resultat einer Suchanfrage. Zukünftig soll Google aber anhand der Historie auch Inhalte empfehlen können, nach denen man nicht aktiv gesucht hat.

3. „And the shift from text to a more visual way of finding information“: Alles wird visueller – und da passt sich Google natürlich auch an, z. B. mit den oben schon genannten Änderungen an der Google Bildersuche. Aber die Einführung von AMP Stories oder die Unterstützung von Google Lens sind wichtige Bausteine auf dem Weg zur visuellen Suche.

Von diesen Themen abgesehen wird erwartet, dass Google auch im Bereich der Audioinhalte besser wird. So meint Google, dass auch Audio seinen Stellenwert verdient (siehe www.searchenginejournal.com/google-wants-make-audio-content-searchable/250723/):

„Right now Google is really good at giving you text and video […] there’s no good reason why audio isn’t a first-class citizen in the same way.“

So hat Google 2018 eine neue Podcasts-App („Google Podcasts“) herausgebracht, die beim Entdecken und Konsumieren von Podcasts auf Android-Geräten sicherlich hilfreich sein kann. Aber auch in Bezug auf die Google-Suche werden hier Schritte erwartet, damit man über Suchanfragen auch leicht auf Audio-Inhalte stoßen kann.

Fazit

Es hat sich viel getan – und es wird auch weiterhin viel passieren. Umwälzende Änderungen gab es eher nicht, aber viele Änderungen sind doch einen Blick wert. Unternehmen sollten vor allem am großen Thema „Content“ dran bleiben, denn dort wird Google weiter daran arbeiten, seine Vorstellung vom idealen, für Nutzer relevanten Content in die Tat umzusetzen.

Spannend? Dieser Artikel ist im suchradar #75 erschienen

Lesen Sie weitere spannende Artikel aus der Ausgabe „Webanalyse für Einsteiger: Von Anfang an alles richtig machen“! Entweder online oder als PDF-Magazin.

Kostenlos als PDF-Version Alle Artikel aus der Ausgabe ansehen