• Tel.: 0511-9239990

SEO-Quick-Wins: 16 wertvolle Tipps zur Verbesserung eurer Rankings

23.August 2017 - Featured, Suchmaschinenoptimierung (SEO) -

Ihr wollt eure Rankings in der organischen Suche verbessern? Dann hilft euch unsere SEO-Quick-Win-Liste, schnell und unkompliziert in die Pole-Position zu gelangen!

SEO Quick Wins

Wenn die Website-Analyse eine scheinbar unendlich lange Mängelliste zum Vorschein bringt, ist dies zunächst entmutigend. Wo soll ich anfangen? Was bringt schnell sichtbare Erfolge? Der Druck im Online-Marketing ist groß und ein paar Tage auf Seite zwei bei Google können große finanzielle Verluste nach sich ziehen. Aber genau da liegt auch das große Potential einer ausführlichen Website-Analyse. Sind die Mängel erst einmal aufgedeckt und priorisiert, wird ein effizientes Arbeiten möglich.

Wir stellen euch hier eine Liste, leicht umzusetzender Maßnahmen mit großer Wirkung vor. Der perfekte Start, eine Website zu optimieren und schnell positive Ergebnisse zu verzeichnen.

1. Google My Business

Der kostenlose „Google My Business“-Eintrag ist für kleine Unternehmen ein einfacher Weg, eine größere Präsenz zu erzeugen. Gerade bei lokalen Unternehmen ist er unverzichtbar. Erscheint nach einer Suchanfrage eine Knowledge-Graph-Box mit vielen Informationen, aussagekräftigem Titel, ansprechenden Bildern, Maps etc. erzeugt diese große Aufmerksamkeit beim User und animiert ihn zum Klick. Und das Beste daran: Klicks for Free!

2. Brand-Ranking und Sitelinks

Bei Suchanfragen nach eurem Markenbegriff sollte eure Website auch auf Nummer eins in den Google-Suchergebnisse stehen. Zusätzlich stellen von Google angezeigte Sitelinks wichtige Navigationselemente dar. Bei Suchanfragen für eure Marke und die wichtigsten Keywords, sollten dementsprechend Sitelinks im Snippet oder darunter vorhanden sein.

Ein gezielter Linkaufbau mit Brand-Link-Texten kann die Verknüpfung der Markenbegriffe mit der Website stärken. Dieser Linkaufbau ist weniger für das Ranking, sondern vielmehr als Hilfe und Verifizierung für Google gedacht, die Markenidentität eindeutiger darzustellen.

3. Robots-Meta-Tag

Mit Robots-Meta-Tags könnt ihr die Indexierung jeder einzelnen Seite eurer Domain steuern. Sie sollten auch auf jeder Seite als ‚index‘ hinterlegt werden. Mit der Anweisung „noindex“ wird dem Google Bot mitgeteilt, dass die betroffene URL nicht indexiert werden soll und dementsprechend auch nicht in den SERPs erscheinen wird. Auf diesen Seiten sollten sich keine wichtigen Inhalte befinden. Empfehlenswert ist, alle URLs auf das Vorhandensein und die Sinnhaftigkeit ihre Robots-Meta-Tags zu prüfen und diese gegebenenfalls anzupassen.

Mehr Infos dazu im Google-Support.

4. Duplicate Content

Duplikate jeglicher Art, sind auf Websites tunlichst zu vermeiden. Zum einen erschwert dieser dem Google Bot die Arbeit und zum anderen kann es zu Verwirrung beim User führen.

Sind identische Seiten oder Inhalte indexiert, muss Google entscheiden, welcher der relevantere für den User ist. Dies birgt für den Website-Betreiber die Gefahr, dass Google ausgerechnet die von ihm nicht gewünschte Seite oder Inhalte in den SERPs ausspielt.

Wichtig: Duplicate Content kostet unnötig viel Crawling-Budget!

4.1 Duplicate Content auf Domain-Ebene entsteht, wenn unterschiedliche Versionen einer Website (www.domain.de und domain.de) von Google gecrawlt und im Index gespeichert werden. Inhalte die mehrfach auf verschiedenen URLs zu finden sind, führen zwar nicht zu Abstrafung durch Google, aber sind unnötig und erschweren den Überblick über eure Seite insgesamt.

4.2 Duplicate Content auf der Startseite entsteht häufig, wenn diese in verschiedenen Varianten vorliegt (…/ oder …/index.html etc.). Eine Variante (vorzugsweise die ohne ‚www‘) sollte durch ein Redirect-301-(moved permanently) auf die andere Variante (mit ‚www‘) weitergeleitet werden. Die Weiterleitung wird dazu in der Serverkonfiguration oder der .htaccess-Datei eingetragen.

4.3 Interner Duplicate Content oder Near Duplicate Content auf Textebene wird vom Google Bot ebenfalls erkannt. Es ist ratsam, den Content für eine Seite möglichst einzigartig zu konzipieren. Ziel sollte es sein, die größtmögliche Relevanz des eigenen Textes für das behandelte Thema zu erzielen und so auf Platz eins zu ranken. Google erkennt an Parametern wie zum Beispiel der Aufenthaltsdauer der User etc., ob sie mit den bereitgestellten Inhalten zufrieden sind.

Inhalte, die eher unabsichtlich durch das CMS oder über Filterfunktionen etc. erzeugt werden, lassen sich verhältnismäßig einfach „ausblenden“, zum Beispiel über:

  • „noindex“
  • Canonical-Tags
  • Parameter-Ausschluss in der GSC

Mehr zum Thema Duplicate Content im Beitrag Duplicate Content: Definition und Lösungen für doppelte Inhalte.

5. Google Search Console

Legt am besten die eigene Website in der Google Search Console an. Dieses Google-Tool bietet vielfältige Möglichkeiten, Informationen über das Crawling und den Indexierungsstatus der eigenen Website zu erfahren. Außerdem ist eine Steuerung des Crawlings möglich, zum Beispiel kann der Google Bot angestoßen werden, erneut zu crawlen oder bestimmte Seiten aus dem Index zu entfernen.

Beachtet allerdings, dass alle vier URL-Varianten der Domain (www. HTTP, non-www. HTTP, www. HTTPS und non-www. HTTPS) in der GSC als eigenes Profil eingetragen sind. So könnt ihr individuell festlegen, welche dieser vier Varianten, die von Google zu indexierende ist.

6. Title-Tags

Title-Tags sollten auf jeder Seite vorhanden und einzigartig sein. Sie enthalten idealerweise die wichtigsten Keywords und Brand-Keywords, eine kurze Beschreibung des Seiten-Contents und laden den User zum Klick auf das Suchergebnis ein. In den organischen Suchergebnissen haben sie einen maßgeblichen Anteil an der Entscheidung des Users, ob das Suchergebnis für ihn relevant ist. Denn: „Der erste Eindruck zählt.“ Die Länge des Title-Tags sollte, entsprechend der Google-Vorgaben, rund 70 Zeichen oder 512 Pixel betragen.

Kleinere Websites oder einzelne Abfragen der verwendeten Keywords etc. lassen sich mit Google-Suchoperatoren, wie ‘site:domain’ und ‘intitle:keyword’, analysieren. Für die Überprüfung der Title-Tags jeder einzelnen URL, insbesondere bei größeren Websites, eignen sich Tools wie zum Beispiel Serpsimulator.

7. Überschriften <h1> bis <h6>

Ein gut strukturierter Content ist nicht nur für das Google-Ranking wichtig. Große Textblöcke ohne Konzept und Gliederung schrecken jeden User schon beim ersten Anblick der Seite ab. Die Wahrscheinlichkeit, dass der mühsam erstellte Content ungelesen bleibt und durch eine kurze Verweildauer mit hoher Absprungrate zusätzlich zu negativen Ranking-Signalen bei Google führt, ist sehr hoch.

Bei der Erstellung suchmaschinenfreundlicher Texte solltet ihr auf folgende Punkte besonders achten:

  • jede URL hat genau eine Hauptüberschrift <h1>
  • Haupt- und Neben-Keyword in der <h1> und falls sinnvoll auch in der <h2> verwenden
  • <h3> bis <h6>-Überschriften machen nur bei umfangreichem Content und wenn sie sich aus der Textstruktur ergeben Sinn

Bei umfangreichen Websites empfiehlt sich an dieser Stelle ebenfalls die Verwendung von Tools wie zum Beispiel Screaming-Frog.

8. Interne Verlinkung

Schon bei der Konzeption einer Website solltet ihr besonderes Augenmerk auf die Navigationsstruktur legen. Je weiter ein User (oder der Google Bot) sich in die Tiefe einer Website bewegen muss, desto irrelevanter erscheint der Inhalt der betroffenen Unterseite. Relevante Inhalte, für die man bei Google ranken möchte, sollten daher optimaler Weise nicht mehr als drei Klicks von der Startseite entfernt zu finden sein.

Des Weiteren solltet ihr mithilfe der Google Search Console überprüfen, welche Seiten intern am besten verlinkt sind und ob diese auch wirklich die wichtigsten sind. Andernfalls kann dies zu falschen Signalen für das Google-Ranking führen.

Weitere Punkte, die ihr unbedingt überprüfen und entsprechend optimieren solltet, sind:

  • die Anzahl der Links pro URL, da zu viele Links auf einer einzelnen URL die Linkpower der „angelinkten“ Seiten reduzieren.
  • konsistente und thematisch passende interner Ankertexte (Keyword verwenden)
  • die Verwendung nur einer entsprechenden Ziel-URL pro thematischen Komplex
  • die Verlinkung relevanter Start-, Kategorie- und Produktseiten untereinander und in einer auf- beziehungsweise absteigenden Hierarchie
  • Footer-Gestaltung: auch hier sollten die Ankertexte korrekt benannt und keine großen Link-Blöcke erstellt werden
  • Verzicht auf die Verwendung interner „nofollow“-Links
  • Internen Broken-Links, da diese den User auf nicht mehr verfügbare Seiten leiten. Das führt wiederum zum Verlust von Linkjuice und verschlechtert die User Experience deutlich.

9. Ausgehende Links

Das „Prinzip-Internet“ besteht aus Verlinkungen. Wie so oft ist bei den ausgehenden Links eurer Website das richtige Maß entscheidend. Es ist nicht sinnvoll, die eigene Seite mit ausgehenden Links, die User von meiner Seite wegleiten, zu übersähen noch ist es zielführend, gänzlich auf sie zu verzichten.

Im Rahmen des SEO-Checks empfiehlt es sich, die ausgehenden Links aller Unterseiten zu überprüfen. Achtet dabei besonders auf folgende Punkte:

  • Sind die gesetzten Links thematisch passend und die Linkziele qualitativ hochwertige Websites?
  • Stellen die Verlinkungen eine sinnvolle inhaltliche Ergänzung und somit einen Mehrwert für den User dar?
  • Sind die Links „dofollow“ und funktionieren diese aktuell noch?
  • Werden keine, für mich relevanten Keywords, im Ankertext verwendet?
  • Sind versteckte Links im Quellcode vorhanden?

10. Weiterleitungen

Weiterleitungen sind sinnvoll, um User von einer nicht mehr aktuellen oder nicht-verfügbaren Seite über 30x HTTP Status Codes auf eine passende URL umzuleiten. Linkjuice und Traffic können so aufrechterhalten werden und es entsteht keine negative User Experience. Der Status Code 301 „moved permanently“ ist häufig die beste Lösung, ein Redirect auf der Website zu realisiere, ohne positive Rankingfaktoren, aufgrund eines URL-Umzugs, zu verlieren.

Permanente Weiterleitungen eignen sich sowohl für permanenten Domain-Dokumenten-Umzug auf andere URLs als auch nach der Umstellung von HTTP auf HTTPs und Änderungen der Seitenstruktur. Durch ihre Verwendung könnt ihr Crawl-Budget sparen und Linkjuice weitergeben.

Allgemein solltet ihr alle Weiterleitungen auf folgende Punkte prüfen und gegebenenfalls optimieren:

  • Sind sie sinnvoll gesetzt und der richtige Status Code gewählt?
  • Funktionieren alle Weiterleitungen und haben das richtige Redirect-Ziel hinterlegt?
  • Werden Weiterleitungsketten vermieden, da der Google Bot zu langen Ketten nicht weiter folgt und unnötig die Ladezeit verlängert wird?
  • Werden 302- oder 307- Redirect für Geo-Targeting, Device-Targeting, A/B-Tests, Tracking und saisonale Produkte verwendet? Diese eignen sich besser als die 301-Variante.

Mehr Infos zum Thema Weiterleitungen.

Hilfreich ist das Browser Add-on Redirect Path.

11. Dynamische URLs und Parameter URLs

Dynamische URLs werden verwendet, um Nutzer während einer Session auf der Reise durch die Website im Auge zu behalten. Dies geschieht mit individuellen Session-IDs, die pro Nutzer einzigartig sind. Diese Session-IDs sind in der Regel eine Zahlenkette, die an das Ende einer URL gehängt wird.

Parameter-URLs sind ein Mittel, um Filter, Suchergebnis-Seiten der internen Suche und Sortierfunktionen jeglicher Art zu erstellen. Deswegen werden sie oft von Shop-CMS genutzt. Sie können aber auch für die Auslieferung dynamischer Inhalte oder für das Kampagnen-Tracking genutzt werden.

Beide URL-Arten erkennt ihr an einem „?“ in der URL.

Es empfiehlt sich, statische URLs für die wichtigsten URLs, die ranken sollen, zu erstellen. Um Duplicate Content und nicht eindeutige Signale zu verhindern, können über die Google Search Console bestimmte parameterenthaltende URLs auch komplett vom Indexieren ausgeschlossen werden. Über die robots.txt-Datei können zudem alle Filter- und Suchparameter-URLs ausgeschlossen werden.

12. Externe Links

Erhält meine Website eingehende Links von anderen Domains (auch Backlinks genannt), ist dies ein wichtiges Ranking-Signal für Google. Dabei ist, wie bei der internen Verlinkung unter Punkt 8, auch auf eine gewisse Konsistenz im thematischen Bezug und den verwendeten Ankertexten zu achten. Dies erleichtert dem Google Bot die Arbeit und bringt Vorteile im Ranking.

Im Besonderen ist auf folgende Punkte zu achten:

  • Seriosität, thematische Relevanz und die Anzahl der ausgehenden Links
  • der verlinkenden Domain
  • Sinnhaftigkeit und Konsistenz der verwendeten Ankertexte
  • Vermeidung externer Broken-Links

Hilfreich sind hierfür die Google Search Console und Ahrefs.

13. Verwaiste Seiten

Erhält eine bestimmte URL eurer Domain keinerlei Links von anderen Seiten, bezeichnet man diese als „verwaist Seiten“. Da das Internet auf Verlinkungen basiert, ist davon auszugehen, dass auch Google diese Seiten nicht findet. Der Google Bot nutzt in erster Linie Links bei der Navigation durch das Internet und innerhalb einer Website.

Daher solltet ihr prüfen, wie die einzelnen Unterseiten intern verlinkt sind damit der Google Bot, wenn er die Domain besucht, keine URL „übersieht“, und diese dann weder crawlt noch indexiert. Bei der Konzeption einer Website, insbesondere bei Launch oder Relaunch, sollte auf eine ausgeglichene Verlinkungs-Struktur geachtet werden. Um die Verlinkung einer Domain nachträglich zu prüfen, können verschieden Tools, wie zum Beispiel Ryte, verwendet werden.

14. Keywords Allgemein

Das A und O in der erfolgreichen Konzeption oder Optimierung einer Website ist die Bestimmung des relevanten Keyword-Sets und eine grundlegende gut durchdachte Keyword-Konzeption.

Steht die Keyword-Strategie erst einmal, sollte überprüft werden, welche Unterseiten meiner Domain für welche Themen und zugehörigen Keyword-Cluster bei Google in den SERPs ranken (sollen). Insbesondere bei umfangreicheren Seiten oder zum kontinuierlichen Monitoring empfehlen sich Tools wie XOVI und Keyword-Monitor.

Anhand der Analyse-Ergebnisse können anschließend die zu optimierenden Keywords bestimmt werden. Rankings, die kurz hinter der zehnten Position in den SERPs sind, haben ein großes Potential bereits durch wenig Aufwand, den Sprung auf die erste Seite zu schaffen (Chancen-Keywords). In der Bewertung der Analyse-Ergebnisse sollten auch die Rankings der wichtigsten Wettbewerber in Bezug auf die relevanten Keywords mit betrachtet werden.

Die Bestimmung der Suchintension, der ermittelten Keywords, ist ein wichtiger Punkt in der Keyword-Analyse. Für den Inhalt und die Strukturierung einer Website ist es nötig, im Vorfeld zu ermitteln, was der User in den Suchergebnissen erwartet. Die Suchintension, die hinter der Eingabe eines bestimmten Keywords steht, kann eher eine informations- oder transaktionsorientiert sein. Dies spiegelt die Erwartungen, die eine entsprechende Landingpage erfüllen muss, um das User-Interesse zu befriedigen, wieder.

Mehr zum Thema Keyword-Suchintension.

15. Indexierte und nicht indexierte PDFs/Docs/Excels

Die meisten Websites enthalten PDFs oder andere „Nicht-HTML-Dokumente“. Es ist suboptimal, wenn diese nur in dieser Form von Google indexiert sind. Dem User werden die Dokumente nach Klick auf das Suchergebnis in einem separaten Browser-Fenster angezeigt. Somit erscheinen keine weiteren Website-Elemente wie zum Beispiel die Navigation oder Template-Elemente.

Um den im Dokument enthaltenen Content für Google „sichtbar“ zu machen, sollte er als indexierbares HTML-Dokument erstellt werden. Dieses kann von Google inklusive aller Inhalte gecrawlt und in den Index aufgenommen werden.

Mit den Suchoperatoren „Site:domain.de“ und „filetype:pdf“ lassen sich schnell alle indexierten PDF-Dokumente identifizieren.

Mehr zum Thema Suchoperatoren.

16. Malware- / Spam-Check

Malware und Spam auf der eigenen Seite wird von Google erkannt und kann zu einem Ausschluss aus den SERPs führen. Malware auf der Seite kann der Reputation einer Seite großen Schaden bescheren. Wird dem User eventuell eine Warnung von Google angezeigt, führt dies zum Traffic- und Image-Verlust.

Hilfreich sind hierfür ist der Google Transparenzbericht.

 

Wenn Dir dieser Artikel gefallen hat, dann teile ihn bitte!

(2 votes, average: 5,00 out of 5)

Ein Beitrag von Anja Franke

Anja Franke ist seit Oktober 2017 Junior SEO-Managerin bei Aufgesang. Sie ist in den Bereichen SEO und PPC tätig, wobei ihr Schwerpunkt im SEO-Content liegt. Nach ihrem Studium der Tiermedizin arbeitete sie zunächst im Produkt-Management und Marketing eines Pharmazieunternehmens. Nebenberuflich arbeitet sie als selbstständige Künstlerin und liebt es, in ihrer Freizeit zu Malen oder Zeit mit ihrer Hündin Else zu verbringen.



Wissenswertes

Branchen

  • Digitale Wirtschaft
  • Investitionsgüter
  • IT
  • Mode
  • Lebensmittel
  • Lifestyle
  • Startups

Leistungen

Rechtliches

Privacy Preference Center

Necessary

Advertising

Analytics

Other