Das On-Page-Glossar: Von Alt-Attribut bis XML-Sitemap

Beitrag aus Ausgabe 78 / Juni 2019
Markus Hövener

ist Chefredakteur des Magazins suchradar und geschäftsführender Gesellschafter der SEO-/SEA-Agentur Bloofusion Germany.

Im Bereich der On-Page-Optimierung gibt es viele Fachausdrücke, die man kennen sollte. Einen Überblick über die wichtigsten Begriffe – ohne Anspruch auf Vollständigkeit, aber mit vielen hilfreichen Links, verschafft der folgende Artikel.

Alt-Attribut

Das Alt-Attribut gehört zu einem Bild und wird im HTML-Code ausgeliefert:

<img src=“bild.png“ alt=“Herrschaftliches Haus in Südschweden“>

Für die Optimierung der Bildersuche ist das Alt-Attribut ein wichtiger Punkt – so wie es auch John Mueller von Google bestätigt hat (twitter.com/johnmu/status/1036901608880254976?lang=de):

„Alt text is extremely helpful for Google Images – if you want your images to rank there.“

Mehr Informationen (Google):
support.google.com/webmasters/answer/114016?hl=de

Canonical Tag

Canonical Tags sind hilfreich, um die negativen Effekte von -> Duplicate Content zu beheben. Ein Beispiel:

Die beiden Seiten /bluse-blau.html und bluse-blau.html?groesse=34 zeigen zu 99 % die exakt gleichen Inhalte (bis auf die Auswahl der Größe). Wenn sich nun in beiden Seiten das Canonical Tag

<link rel="canonical" href="https://website/bluse-blau.html"/>

befindet, zieht die Suchmaschine die beiden Dubletten zusammen und sorgt dafür, dass nur die Seite /bluse-blau.html in den Suchergebnissen ausgespielt wird. Der negative Effekt von -> Duplicate Content (verschiedene Dubletten, die sich interne Signale teilen) wird so aufgehoben. Vor allem werden die internen Verlinkungen addiert, sodass die durch das Canonical-Tag ausgewählte Seite stärker ist als jede Dublette.

Mehr Informationen (Google):
support.google.com/webmasters/answer/139066?hl=de

Duplicate Content

Doppelte Inhalte (Duplicate Content, DC) werden oft als dringendes SEO-Problem wahrgenommen, was aber wohl nicht immer der Realität entspricht. Der klassische DC bezeichnet den Fall, dass es unter mehreren URLs identische oder nahezu identische Inhalte gibt (also z. B. /herrenschuhe/marken/lloyd/ und /marken/lloyd/). Es gibt aber auch Partial DC, bei dem Teile von Seiten identisch sind.

Wie schon gesagt: In der Praxis wird das Thema oft „tödlicher“ wahrgenommen, als es in der Tat dann auch ist. Wer gegen DC vorgehen möchte, hat dazu Instrumente wie das -> Canonical Tag oder auch URL-Parameter-Handling über die Google Search Console zur Verfügung.

Mehr Informationen (Webinar-Mitschnitt von Bloofusion):
www.youtube.com/watch?v=ReoBRaBUTPU

Featured Snippet

Ein Featured Snippet (oder auch Position 0) ist ein spezielles Suchergebnis (siehe Abbildung 1). Dafür wählt Google unter den ersten zehn Suchergebnissen eines aus, in dem sich ein Ausschnitt befindet, der die Suchanfrage besonders gut beantwortet. Dieser wird dann zusätzlich zum normalen Suchergebnis oberhalb des ersten regulären Suchergebnisses angezeigt.

Featured Snippets können hilfreich sein, da es durch sie zu einer höheren Klickrate kommen kann. Es besteht aber auch die Möglichkeit, dass die Suchanfrage durch das Featured Snippet bereits vollständig beantwortet wird – wie im Beispiel in Abbildung 1. Dann kommt es leider zu einer steigenden No-Click-Rate, was negativ für die Website sein kann.

Unkritisch werden die Featured Snippets also nicht gesehen. Einen Vorteil haben sie aber: Wenn man einen Sprachassistenten wie Google Home befragt, wird dieser bei einer Frage in der Regel das Featured Snippet vorlesen. Wer also über digitale Assistenten gefunden werden will, muss auch für Featured Snippets optimieren.

Mehr Informationen (Video von Bloofusion):
www.youtube.com/watch?v=iHEQV1lNHKc

Hreflang-Tag

Das hreflang-Tag ist noch ein relativ junges Instrument für SEOs. Damit können internationale Inhalte optimal für Suchmaschinen abgebildet werden, sodass in den Suchergebnissen jeweils das passende Ergebnis für den jeweiligen Nutzer ausgespielt wird.

Wenn es die Seite website.de/unterseite.html also unter der URL website.at/unterseite.html auch für Österreich gibt, könnte es durchaus passieren, dass ein in Österreich Suchender auf der .de-Website landet, weil diese konkrete Seite vielleicht bessere Signale hat. Wenn sich in beiden Seiten aber die folgende Information befindet, würde Google die Suchenden aus Deutschland und Österreich auf die jeweils richtigen Seiten schicken:

<link rel="alternate" hreflang="de-DE" href="https://website.de/unterseite.html"/>

<link rel="alternate" hreflang="de-AT" href="https://website.at/unterseite.html"/>

Mehr Informationen (Google):
support.google.com/webmasters/answer/189077?hl=de

Mehr Informationen (hreflang-FAQ von Bloofusion):
blog.bloofusion.de/hreflang-faq/

Htaccess

Die .htaccess-Datei ist eine Datei, mit der man den Webserver Apache konfigurieren kann. In dieser Datei kann man allerlei Einstellungen vornehmen, z. B. Umleitungen einrichten oder Verzeichnisse per Passwort schützen.

Gerade für Laien ist es absolut nicht zu empfehlen, auf eigene Faust Änderungen vorzunehmen, da das möglicherweise zu ungewünschten Effekten führen kann.

HTTP-Header

Bei dem Abruf einer Ressource (HTML-Seite, Bild, Video …) über HTTP oder HTTPS wird nicht nur die jeweilige Information übertragen. Vor diesen Daten befindet sich ein Header, der im Browser nicht angezeigt wird, aber Informationen für Suchmaschinen enthalten kann.

So können sich dort z. B. Informationen wiederfinden, die sonst über das -> Canonical Tag, das -> hreflang-Tag oder das -> Robots-Meta-Tag transportiert werden. Theoretisch können sich im HTTP-Header also Informationen befinden, die für eine Website schädlich in Bezug auf SEO sind und die im HTML-Code nicht angezeigt werden.

Kannibalisierung

Mit Kannibalisierung bezeichnet man den Fall, dass es für eine konkrete Suchanfrage mehrere passende Seiten auf einer Website gibt. Hierbei geht es also in der Regel nicht um -> Duplicate Content, sondern z. B. um den Fall, dass es zu einer Suchanfrage wie „fußball wm“ auf einer Website eine Seite zur Fußball-WM 2018 und eine zur WM 2022 gibt. Man wird nun in den Auswertungen (z. B. Google Search Console) sehen können, dass mal die eine, mal die andere Seite in den Suchergebnissen ausgespielt wird.

Kannibalisierung ist also manchmal ein Effekt schlechter Content-Planung oder einer suboptimalen Informationsarchitektur. Besser ist es dann manchmal, verschiedene sich kannibalisierende Seiten zu einer großen Seite zusammenzufassen oder auch bestimmte Seiten klarer auf unterschiedliche Suchbegriffe auszurichten.

Knowledge Graph

Der Knowledge Graph ist im Kern eine Google-Datenbank, die strukturiert Wissen aus verschiedenen Quellen abspeichert. Diese Daten können dann in Google-Ergebnissen ausgespielt werden (Knowledge Panel) oder z. B. von Google Home (digitaler Assistent) wiedergegeben werden.

Die Informationen für den Knowledge Graph stammen z. B. aus Wikipedia (siehe Abbildung 2), Wikidata und anderen Quellen. Vollkommen unstrittig ist der Knowledge Graph nicht, weil er (ähnlich wie -> Featured Snippets) dazu führen kann, dass weniger Suchergebnis-Klicks entstehen – was Wikipedia in mehreren Fällen (z. B. www.theregister.co.uk/2014/01/13/google_stabs_wikipedia_in_the_front) auch öffentlich beklagt hat.

Markup

Eine HTML-Seite besteht aus Suchmaschinensicht primär aus Text – ohne dass die Suchmaschine genau wissen kann, was sich in dem Text befindet. Ein Produkt mit Preis, Beschreibung und Produktname? Eine Veranstaltung mit Beginn, Ende, einem Veranstaltungsort? All das kann eine Suchmaschine bestenfalls raten.

Diese Informationen können aber im HTML-Code strukturiert hinterlegt werden (Markup), sodass Suchmaschinen wie Google diese eindeutig auslesen können. Auf die Darstellung der Inhalte im Browser hat das keinen Einfluss.

Wie diese strukturierten Daten geschrieben werden, ist dabei standardisiert. Auf der Website schema.org finden sich die jeweiligen Schemata (also z. B. Produkt oder Event) und die jeweils möglichen Attribute (also z. B. Preis oder Veranstaltungsort). Für den HTML-Laien sind diese Spezifikationen allerdings relativ schwer zu verstehen, zumal es drei unterschiedliche Schreibweisen (RDFa, Microdata, JSON-LD) gibt.

Markup hat u. a. den Vorteil, dass dadurch -> Rich Snippets ermöglicht werden. Rein theoretisch sind diese auch ohne Markup möglich, aber in der Praxis ist Markup immer noch eine klare Voraussetzung.

Weitere Informationen (Google):
developers.google.com/search/docs/guides/mark-up-content?hl=de

Weitere Informationen:
schema.org/

Meta Description

Die Meta Description befindet sich im <head>-Bereich einer HTML-Seite:

<meta name=”description” content=”Hier steht die Meta Description”>

Der Inhalt dieses Tags wird von Suchmaschinen in der Regel für das Snippet verwendet – also den Textausschnitt im Suchergebnis. Über die Meta Description, die im Browser selbst nicht angezeigt wird, kann man also (ebenso wie über den -> Seitentitel) die textliche Darstellung im Suchergebnis beeinflussen.

Meta Keywords

Über die Meta Keywords (ein Meta-Tag im <head>-Bereich einer HTML-Seite) kann man theoretisch Suchbegriffe übermitteln, die für diese Seite von Bedeutung sind:

<meta name=”keywords” content=”keyword1, keyword2, …”>

In der Praxis sind Meta Keywords nicht mehr relevant, weil alle bekannten Suchmaschinen (vor allem: Google und Bing) dieses Tag nicht mehr auslesen.

Meta-Tags

Unter Meta-Tags versteht man im HTML-Code Tags der Form

<meta name=“Name“ content=“Content“>

Meta-Tags befinden sich im <head>-Bereich einer HTML-Seite. Am bekanntesten ist sicherlich die -> Meta Description, die für die Darstellung des Snippets im Suchergebnis zuständig ist. Aber auch weitere Meta-Tags werden von Suchmaschinen verstanden, z. B. das -> Robots-Meta-Tag oder der Viewport (Hinweise zum Rendering auf Mobilgeräten).

Übrigens: Der Seitentitel wird oft auch als Meta Title bezeichnet, ist aber technisch gesehen kein Meta-Tag.

Mehr Informationen (Google):
support.google.com/webmasters/answer/79812?hl=de

Nutzersignale

Unter Nutzersignalen (neudeutsch: User Signals) versteht man die Signale, die Nutzer bei der Betrachtung von Suchergebnissen generieren: Welche Klickrate hat ein bestimmtes Suchergebnis? Wie lange bleibt der Nutzer nach dem Klick auf der jeweiligen Website? Wie viele Seiten schaut er sich dort an?

Nutzersignale sind absolut umstritten hinsichtlich der Auswirkung auf die Google-Rankings. Google weist regelmäßig darauf hin, dass diese Daten „noisy“ (etwa: unsicher) sind und für die Bestimmung der Rankings nicht direkt (aber indirekt) verwendet werden. Es gibt aber durchaus einige Tests von SEOs, die einen Effekt der Nutzersignale auf Rankings gemessen haben wollen.

Grundsätzlich gilt in jedem Fall: Gute Nutzersignale sind sicherlich nicht verkehrt und schaden den Rankings auch nicht.

Redirect

Ein Redirect ist eine Umleitung von einer URL auf eine andere URL – z. B. weil sich im Verlauf der Zeit die konkrete URL einer Seite geändert hat. Vor allem im Rahmen von Relaunch-Projekten ist die Nutzung von Redirects sehr wichtig, um durch geänderte URL-Strukturen keine Traffic-Einbußen zu riskieren.

Klassisch werden vor allem 301- und 302-Redirects unterschieden: Der eine (301) ist permanent und in den meisten Fällen in Bezug auf SEO zu empfehlen, der andere (302) ist nur temporär gemeint und wird in der Praxis nur selten gebraucht. Insgesamt gibt es noch ein paar weitere Redirect-Codes (siehe de.wikipedia.org/wiki/HTTP-Statuscode), die in der Praxis aber nur sehr selten auftreten.

Rendern

Unter Rendern/Rendering versteht man in der SEO-Welt, dass eine HTML-Seite vollständig dargestellt wird, also unter Anwendung aller CSS-, JavaScript-, Font-, Bild- und sonstiger Dateien. Vor allem das Ausführen von JavaScript-Code gehört dazu, da diese Anweisungen den HTML-Code verändern können.

Grundsätzlich ist Rendern ein aufwendiger Vorgang. Manche Google-Tools führen z. B. kein JavaScript aus, sodass man sich evtl. eine Seite anschaut, die von der real im Browser gezeigten Seite abweicht. Wer Crawler-Tools (Ryte, Screaming Frog …) nutzt, sollte jeweils darauf achten, dort auch das JavaScript-Rendern zu aktivieren. Denn Google rendert Seiten vollständig vor der Aufnahme in den Index, sodass ein Crawler das natürlich auch analog machen sollte.

Rich Snippets/Rich Results

Unter Rich Snippets oder auch Rich Results versteht man alle Suchergebnisse, die Informationen darstellen, die über das Normalmaß hinausgehen, z. B. die beliebten Sternchenbewertungen (siehe Abbildung 3). Diese Suchergebnisse sind „rich“ und erzielen dadurch oft mehr Aufmerksamkeit und dadurch eine höhere Klickrate.

Um Rich Snippets zu erhalten, muss man in der Regel -> Markup einsetzen. Es gibt allerdings niemals eine Garantie, dass bei korrektem Markup auch Rich Snippets angezeigt werden. Das kann z. B. von der jeweiligen Suchanfrage und den anderen Suchergebnissen abhängen.

Robots.txt

Mit der Datei robots.txt, die über die URL http(s)://domain/robots.txt abgerufen wird, kann man unterschiedlichen Crawlen (wie dem Googlebot von Google) Anweisungen geben, welche Inhalte der Website nicht heruntergeladen werden dürfen.

Dort können dann Anweisungen wie

Disallow: /suche

stehen, die verhindern, dass URLs heruntergeladen werden, deren Pfad mit /suche beginnt (also z. B. /suche?wort=abc).

Solche Anweisungen kann man nutzen, um irrelevante Inhalte (wie eine Print-Funktion oder Filterseiten) nicht von Google crawlen zu lassen. Das kann nützlich sein, um z. B. Überlastungen des Servers zu vermeiden.

Wichtig ist dabei, dass per robots.txt gesperrte Seiten trotzdem in einigen Fällen im Google-Index erscheinen können. Wer also erreichen möchte, dass eine Seite auf gar keinen Fall im Index zu finden ist, sollte stattdessen auf Noindex (siehe -> Robots-Meta-Tag) zurückgreifen.

Übrigens: Wer keine robots.txt-Datei hat, erleidet dadurch keinen Nachteil – auch wenn automatisierte Tools das Fehlen der Datei oft als Malus werten. Die Datei darf gerne fehlen, wenn man nichts zu sperren hat.

Mehr Informationen (Google):
support.google.com/webmasters/answer/6062596?hl=de

Robots-Meta-Tag

Über das Robots-Meta-Tag, das sich im Head-Bereich einer HTML-Seite befindet, können zusätzlich Anweisungen an Google übermittelt werden:

<meta name=“robots“ content=“Werte, durch Komma getrennt“>

Das bekannteste Robots-Meta-Tag ist wohl „noindex“, was dazu führt, dass die jeweilige Seite gecrawlt, aber dann nicht indexiert wird.

Darüber hinaus gibt es aber noch viele andere Tags, z. B. „nofollow“ (der Crawler soll keinen Links von dieser Seite folgen) oder „noarchive“ (für das Suchergebnis wird kein Cache-Eintrag angelegt). Mit der Zeit sind übrigens auch einige Tags von der Bildfläche verschwunden, z. B. „noodp“ oder „noydir“, die verhindern, dass Einträge aus älteren Verzeichnissen übernommen werden.

Übrigens: Typischerweise befindet sich das Robots-Meta-Tag wie gesagt im HTML-Code. Es kann aber auch über den -> HTTP-Header ausgespielt werden.

Mehr Informationen (Google):
developers.google.com/search/reference/robots_meta_tag?hl=de

Search Intent/User Intent

Der Search Intent oder User Intent bezeichnet das Ziel, dass ein Suchender mit seiner Suchanfrage erreichen möchte. Inhalte sollten diesen Intent idealerweise eindeutig und vollumfänglich befriedigen.

Ein Beispiel: Ein Nutzer, der die Suchanfrage „hörgeräte kosten“ eingibt, möchte offensichtlich wissen, welche Kosten die Anschaffung eines Hörgerätes verursacht. Ein Text, der ein paar wenige Faktoren auflistet und zudem keinen konkreten Kostenrahmen nennt, erfüllt den Intent also nicht.

Klassisch wird zwischen drei Search Intents unterschieden: informational (Nutzer will etwas wissen), transactional (Nutzer möchte etwas kaufen) und navigational (Nutzer sucht etwas konkretes, z. B. eine Website) unterschieden. In den Quality Rater Guidelines von Google werden diese mittlerweile anders benannt: „Know“ (=informational), „Website-Suchen“ (=navigational), „Visit-in-Person“ (lokale Suchanfragen) und „Do“ (Nutzer möchte ein bestimmtes Ziel erreichen = transactional und weitere Suchanfragen).

Seitentitel

Der Seitentitel befindet sich im <head>-Bereich einer HTML-Seite:

<title>Hier steht dann der Seitentitel</title>

In Browsern wird der Seitentitel als Überschrift im Tab angezeigt; wirklich relevant ist der Seitentitel aber eher für Suchmaschinen, da er in die erste Zeile vom Suchergebnis übernommen wird. Falls der Seitentitel zu lang ist (ca. 60 Zeichen in der Desktop-Darstellung), wird er gekürzt (erkennbar an den drei Punkten am Ende). Für den seltenen Fall, dass der Seitentitel deutlich zu lang ist oder übermäßig mit Suchbegriffen aufgefüllt wurde, verwirft Google allerdings den Seitentitel und erstellt algorithmisch eine vermeintlich bessere Version (z. B. anhand der Hauptüberschrift).

Universal Search

Universal Search (oder auch „Blended Search“) ist ein Begriff für die Einblendung verschiedener Google-Spezial-Suchen in den allgemeinen Google-Ergebnissen. Wer nach visuellen Themen sucht, wird oft eine Bildereinblendung sehen, die dann nach dem Klick in die Google Bildersuche führt. Bei aktuellen Themen wird oft ein Verweis auf die Schlagzeilen (Google News) zu finden sein. Lokale Suchanfragen führen oft zu einer Einblendung von lokalen Ergebnissen aus Google Maps. Und so weiter.

Universal Search ist also die Abkehr von dem, was man klassisch „Ten Blue Links“ nennt. Früher bot Google wirklich nur zehn Suchergebnisse („blue link“) an. In den letzten 20 Jahren hat sich hier relativ viel verändert. Die Vielfalt der Elemente und deren grafische Umsetzung wurde hinreichend oft angepasst.

XML-Sitemap

Eine XML-Sitemap ist eine Auflistung von einzelnen Seiten einer Website. Zusätzlich zu den einzelnen Seiten können dort noch weitere Informationen abgelegt werden, z. B. das letzte Änderungsdatum einer Seite. Wer mehrere XML-Sitemaps (z. B. bei größeren Websites) hat, kann dafür eine Index-Datei erstellen, die auf die einzelnen XML-Sitemaps verlinkt.

Hilfreich sind XML-Sitemaps vor allem aus zwei Gründen: Die Suchmaschinen-Crawler können darauf zugreifen und so gezielt die wichtigen Seiten herunterladen. Außerdem sind sie bei der Diagnose hilfreich. So kann man nach Übermittlung einer XML-Sitemap in der Google Search Console detaillierte Informationen über genau diese Seiten erhalten: Haben alle den Weg in den Index gefunden? Oder gab es z. B. technische Probleme?

Übrigens: XML-Sitemaps sind nicht nur für HTML-Seiten geeignet. Zusätzlich können dort auch Informationen über Bilder und Videos abgelegt werden. Und: Es gibt auch ein spezielles Sitemap-Format für Google News, damit der Google-Nachrichten-Index schnell an alle Nachrichten herankommt.

Mehr Informationen (Google):
support.google.com/webmasters/answer/183668?hl=de

Spannend? Dieser Artikel ist im suchradar #78 erschienen

Lesen Sie weitere spannende Artikel aus der Ausgabe „Das Online-Marketing-Glossar: Von Alt-Attribut bis Zielgruppe“! Entweder online oder als PDF-Magazin.

Kostenlos als PDF-Version Alle Artikel aus der Ausgabe ansehen