1. Google My Business
2. Brand-Ranking und Sitelinks
3. Robots-Meta-Tag
Mit Robots-Meta-Tags könnt ihr die Indexierung jeder einzelnen Seite eurer Domain steuern. Sie sollten auch auf jeder Seite als ‚index‘ hinterlegt werden. Mit der Anweisung „noindex“ wird dem Google Bot mitgeteilt, dass die betroffene URL nicht indexiert werden soll und dementsprechend auch nicht in den SERPs erscheinen wird. Auf diesen Seiten sollten sich keine wichtigen Inhalte befinden. Empfehlenswert ist, alle URLs auf das Vorhandensein und die Sinnhaftigkeit ihre Robots-Meta-Tags zu prüfen und diese gegebenenfalls anzupassen.
Mehr Infos dazu im Google-Support.
4. Duplicate Content
Duplikate jeglicher Art, sind auf Websites tunlichst zu vermeiden. Zum einen erschwert dieser dem Google Bot die Arbeit und zum anderen kann es zu Verwirrung beim User führen.
Sind identische Seiten oder Inhalte indexiert, muss Google entscheiden, welcher der relevantere für den User ist. Dies birgt für den Website-Betreiber die Gefahr, dass Google ausgerechnet die von ihm nicht gewünschte Seite oder Inhalte in den SERPs ausspielt.
Wichtig: Duplicate Content kostet unnötig viel Crawling-Budget!
4.1 Duplicate Content auf Domain-Ebene entsteht, wenn unterschiedliche Versionen einer Website (www.domain.de und domain.de) von Google gecrawlt und im Index gespeichert werden. Inhalte die mehrfach auf verschiedenen URLs zu finden sind, führen zwar nicht zu Abstrafung durch Google, aber sind unnötig und erschweren den Überblick über eure Seite insgesamt.
4.2 Duplicate Content auf der Startseite entsteht häufig, wenn diese in verschiedenen Varianten vorliegt (…/ oder …/index.html etc.). Eine Variante (vorzugsweise die ohne ‚www‘) sollte durch ein Redirect-301-(moved permanently) auf die andere Variante (mit ‚www‘) weitergeleitet werden. Die Weiterleitung wird dazu in der Serverkonfiguration oder der .htaccess-Datei eingetragen.
4.3 Interner Duplicate Content oder Near Duplicate Content auf Textebene wird vom Google Bot ebenfalls erkannt. Es ist ratsam, den Content für eine Seite möglichst einzigartig zu konzipieren. Ziel sollte es sein, die größtmögliche Relevanz des eigenen Textes für das behandelte Thema zu erzielen und so auf Platz eins zu ranken. Google erkennt an Parametern wie zum Beispiel der Aufenthaltsdauer der User etc., ob sie mit den bereitgestellten Inhalten zufrieden sind.
Inhalte, die eher unabsichtlich durch das CMS oder über Filterfunktionen etc. erzeugt werden, lassen sich verhältnismäßig einfach „ausblenden“, zum Beispiel über:
- „noindex“
- Canonical-Tags
- Parameter-Ausschluss in der GSC
Mehr zum Thema Duplicate Content im Beitrag Duplicate Content: Definition und Lösungen für doppelte Inhalte.
5. Google Search Console
6. Title-Tags
Title-Tags sollten auf jeder Seite vorhanden und einzigartig sein. Sie enthalten idealerweise die wichtigsten Keywords und Brand-Keywords, eine kurze Beschreibung des Seiten-Contents und laden den User zum Klick auf das Suchergebnis ein. In den organischen Suchergebnissen haben sie einen maßgeblichen Anteil an der Entscheidung des Users, ob das Suchergebnis für ihn relevant ist. Denn: „Der erste Eindruck zählt.“ Die Länge des Title-Tags sollte, entsprechend der Google-Vorgaben, rund 70 Zeichen oder 512 Pixel betragen.
Kleinere Websites oder einzelne Abfragen der verwendeten Keywords etc. lassen sich mit Google-Suchoperatoren, wie ‘site:domain’ und ‘intitle:keyword’, analysieren. Für die Überprüfung der Title-Tags jeder einzelnen URL, insbesondere bei größeren Websites, eignen sich Tools wie zum Beispiel Serpsimulator.
7. Überschriften <h1> bis <h6>
Ein gut strukturierter Content ist nicht nur für das Google-Ranking wichtig. Große Textblöcke ohne Konzept und Gliederung schrecken jeden User schon beim ersten Anblick der Seite ab. Die Wahrscheinlichkeit, dass der mühsam erstellte Content ungelesen bleibt und durch eine kurze Verweildauer mit hoher Absprungrate zusätzlich zu negativen Ranking-Signalen bei Google führt, ist sehr hoch.
Bei der Erstellung suchmaschinenfreundlicher Texte solltet ihr auf folgende Punkte besonders achten:
- jede URL hat genau eine Hauptüberschrift <h1>
- Haupt- und Neben-Keyword in der <h1> und falls sinnvoll auch in der <h2> verwenden
- <h3> bis <h6> Überschriften machen nur bei umfangreichem Content und wenn sie sich aus der Textstruktur ergeben Sinn
Bei umfangreichen Websites empfiehlt sich an dieser Stelle ebenfalls die Verwendung von Tools wie zum Beispiel Screaming-Frog.
8. Interne Verlinkung
Schon bei der Konzeption einer Website solltet ihr besonderes Augenmerk auf die Navigationsstruktur legen. Je weiter ein User (oder der Google Bot) sich in die Tiefe einer Website bewegen muss, desto irrelevanter erscheint der Inhalt der betroffenen Unterseite. Relevante Inhalte, für die man bei Google ranken möchte, sollten daher optimaler Weise nicht mehr als drei Klicks von der Startseite entfernt zu finden sein.
Des Weiteren solltet ihr mithilfe der Google Search Console überprüfen, welche Seiten intern am besten verlinkt sind und ob diese auch wirklich die wichtigsten sind. Andernfalls kann dies zu falschen Signalen für das Google-Ranking führen.
Weitere Punkte, die ihr unbedingt überprüfen und entsprechend optimieren solltet, sind:
- die Anzahl der Links pro URL, da zu viele Links auf einer einzelnen URL die Linkpower der „angelinkten“ Seiten reduzieren.
- konsistente und thematisch passende interner Ankertexte (Keyword verwenden)
- die Verwendung nur einer entsprechenden Ziel-URL pro thematischen Komplex
die Verlinkung relevanter Start-, Kategorie- und Produktseiten untereinander und in einer auf- beziehungsweise absteigenden Hierarchie - Footer-Gestaltung: auch hier sollten die Ankertexte korrekt benannt und keine großen Link-Blöcke erstellt werden
- Verzicht auf die Verwendung interner „nofollow“-Links
- Internen Broken-Links, da diese den User auf nicht mehr verfügbare Seiten leiten. Das führt wiederum zum Verlust von Linkjuice und verschlechtert die User Experience deutlich.
9. Ausgehende Links
Das „Prinzip-Internet“ besteht aus Verlinkungen. Wie so oft ist bei den ausgehenden Links eurer Website das richtige Maß entscheidend. Es ist nicht sinnvoll, die eigene Seite mit ausgehenden Links, die User von meiner Seite wegleiten, zu übersähen noch ist es zielführend, gänzlich auf sie zu verzichten.
Im Rahmen des SEO-Checks empfiehlt es sich, die ausgehenden Links aller Unterseiten zu überprüfen. Achtet dabei besonders auf folgende Punkte:
- Sind die gesetzten Links thematisch passend und die Linkziele qualitativ hochwertige Websites?
- Stellen die Verlinkungen eine sinnvolle inhaltliche Ergänzung und somit einen Mehrwert für den User dar?
- Sind die Links „dofollow“ und funktionieren diese aktuell noch?
- Werden keine, für mich relevanten Keywords, im Ankertext verwendet?
- Sind versteckte Links im Quellcode vorhanden?
10. Weiterleitungen
Weiterleitungen sind sinnvoll, um User von einer nicht mehr aktuellen oder nicht-verfügbaren Seite über 30x HTTP Status Codes auf eine passende URL umzuleiten. Linkjuice und Traffic können so aufrechterhalten werden und es entsteht keine negative User Experience. Der Status Code 301 „moved permanently“ ist häufig die beste Lösung, ein Redirect auf der Website zu realisiere, ohne positive Rankingfaktoren, aufgrund eines URL-Umzugs, zu verlieren.
Permanente Weiterleitungen eignen sich sowohl für permanenten Domain-Dokumenten-Umzug auf andere URLs als auch nach der Umstellung von HTTP auf HTTPs und Änderungen der Seitenstruktur. Durch ihre Verwendung könnt ihr Crawl-Budget sparen und Linkjuice weitergeben.
Allgemein solltet ihr alle Weiterleitungen auf folgende Punkte prüfen und gegebenenfalls optimieren:
- Sind sie sinnvoll gesetzt und der richtige Status Code gewählt?
- Funktionieren alle Weiterleitungen und haben das richtige Redirect-Ziel hinterlegt?
- Werden Weiterleitungsketten vermieden, da der Google Bot zu langen Ketten nicht weiter folgt und unnötig die Ladezeit verlängert wird?
- Werden 302- oder 307- Redirect für Geo-Targeting, Device-Targeting, A/B-Tests, Tracking und saisonale Produkte verwendet? Diese eignen sich besser als die 301-Variante.
Mehr Infos zum Thema Weiterleitungen.
Hilfreich ist das Browser Add-on Redirect Path.
11. Dynamische URLs und Parameter URLs
12. Externe Links
Erhält meine Website eingehende Links von anderen Domains (auch Backlinks genannt), ist dies ein wichtiges Ranking-Signal für Google. Dabei ist, wie bei der internen Verlinkung unter Punkt 8, auch auf eine gewisse Konsistenz im thematischen Bezug und den verwendeten Ankertexten zu achten. Dies erleichtert dem Google Bot die Arbeit und bringt Vorteile im Ranking.
Im Besonderen ist auf folgende Punkte zu achten:
- Seriosität, thematische Relevanz und die Anzahl der ausgehenden Links
- der verlinkenden Domain
- Sinnhaftigkeit und Konsistenz der verwendeten Ankertexte
- Vermeidung externer Broken-Links
Hilfreich sind hierfür die Google Search Console und Ahrefs.
13. Verwaiste Seiten
Erhält eine bestimmte URL eurer Domain keinerlei Links von anderen Seiten, bezeichnet man diese als „verwaist Seiten“. Da das Internet auf Verlinkungen basiert, ist davon auszugehen, dass auch Google diese Seiten nicht findet. Der Google Bot nutzt in erster Linie Links bei der Navigation durch das Internet und innerhalb einer Website.
Daher solltet ihr prüfen, wie die einzelnen Unterseiten intern verlinkt sind damit der Google Bot, wenn er die Domain besucht, keine URL „übersieht“, und diese dann weder crawlt noch indexiert. Bei der Konzeption einer Website, insbesondere bei Launch oder Relaunch, sollte auf eine ausgeglichene Verlinkungs-Struktur geachtet werden. Um die Verlinkung einer Domain nachträglich zu prüfen, können verschieden Tools, wie zum Beispiel Ryte, verwendet werden.
14. Keywords Allgemein
Das A und O in der erfolgreichen Konzeption oder Optimierung einer Website ist die Bestimmung des relevanten Keyword-Sets und eine grundlegende gut durchdachte Keyword-Konzeption.
Steht die Keyword-Strategie erst einmal, sollte überprüft werden, welche Unterseiten meiner Domain für welche Themen und zugehörigen Keyword-Cluster bei Google in den SERPs ranken (sollen). Insbesondere bei umfangreicheren Seiten oder zum kontinuierlichen Monitoring empfehlen sich Tools wie XOVI und Keyword-Monitor.
Anhand der Analyse-Ergebnisse können anschließend die zu optimierenden Keywords bestimmt werden. Rankings, die kurz hinter der zehnten Position in den SERPs sind, haben ein großes Potential bereits durch wenig Aufwand, den Sprung auf die erste Seite zu schaffen (Chancen-Keywords). In der Bewertung der Analyse-Ergebnisse sollten auch die Rankings der wichtigsten Wettbewerber in Bezug auf die relevanten Keywords mit betrachtet werden.
Die Bestimmung der Suchintension, der ermittelten Keywords, ist ein wichtiger Punkt in der Keyword-Analyse. Für den Inhalt und die Strukturierung einer Website ist es nötig, im Vorfeld zu ermitteln, was der User in den Suchergebnissen erwartet. Die Suchintension, die hinter der Eingabe eines bestimmten Keywords steht, kann eher eine informations- oder transaktionsorientiert sein. Dies spiegelt die Erwartungen, die eine entsprechende Landingpage erfüllen muss, um das User-Interesse zu befriedigen, wieder.
Mehr zum Thema Keyword-Suchintension.
15. Indexierte und nicht indexierte PDFs/Docs/Excels
Die meisten Websites enthalten PDFs oder andere „Nicht-HTML-Dokumente“. Es ist suboptimal, wenn diese nur in dieser Form von Google indexiert sind. Dem User werden die Dokumente nach Klick auf das Suchergebnis in einem separaten Browser-Fenster angezeigt. Somit erscheinen keine weiteren Website-Elemente wie zum Beispiel die Navigation oder Template-Elemente.
Um den im Dokument enthaltenen Content für Google „sichtbar“ zu machen, sollte er als indexierbares HTML-Dokument erstellt werden. Dieses kann von Google inklusive aller Inhalte gecrawlt und in den Index aufgenommen werden.
Mit den Suchoperatoren „Site:domain.de“ und „filetype:pdf“ lassen sich schnell alle indexierten PDF-Dokumente identifizieren.
Mehr zum Thema Suchoperatoren.
16. Malware- / Spam-Check
Malware und Spam auf der eigenen Seite wird von Google erkannt und kann zu einem Ausschluss aus den SERPs führen. Malware auf der Seite kann der Reputation einer Seite großen Schaden bescheren. Wird dem User eventuell eine Warnung von Google angezeigt, führt dies zum Traffic- und Image-Verlust.
Hilfreich sind hierfür ist der Google Transparenzbericht.