de
English Español Deutsch Français Italiano Português (Brasil) Русский 中文 日本語
Zum Blog
Dave Rohrer

SEO für KMU: Warum findet man uns nicht in Google?

54
Wow-Score
Der Wow-Score zeigt, wie interessant ein Blog-Beitrag ist. Berechnet wird er anhand der Korrelation zwischen der aktiven Lesezeit von Benutzern, der Geschwindigkeit, mit der sie scrollen, und der Länge des Artikels.
Dieser Beitrag ist auf Deutsch
Dave Rohrer
Dieser Beitrag ist auf Deutsch
SEO für KMU: Warum findet man uns nicht in Google?

Sie fragen sich, warum Ihre Website nicht in Google gefunden wird? Viele mögliche Fehler können dafür verantwortlich sein. Einige der häufigsten finden Sie in diesem Artikel – sowie natürlich Tipps, wie Sie diese Probleme lösen oder von vornherein vermeiden können.

Stellen Sie vor der Fehlersuche sicher, dass Sie folgende Grundlagen abgedeckt haben. Dadurch ist das Problem vielleicht noch nicht behoben, lässt sich aber leichter eingrenzen.

Checkliste vor dem Audit

  • Haben Sie die Google Search Console eingerichtet?

  • Haben Sie Bing Webmaster eingerichtet? 

  • Ist Google Analytics eingerichtet und sammelt Daten?

  • Crawlen Sie Ihre Website mit dem SEMrush Site Audit oder einem Crawler Ihrer Wahl.

Jetzt lokale Citations prüfen!

Geben Sie den Geschäftsnamen ein und sehen Sie die Einträge!

Bitte geben Sie eine korrekte Domain ein.

Fortgeschrittene können folgende Schritte hinzufügen:

  • Verschaffen Sie sich Zugang zum cPanel oder Backend Ihrer Website. Sehen Sie sich Ihre Logdateien an.

    • Wenn Sie bereits Zugang haben, vergewissern Sie sich, dass Seitenabrufe durch Nutzer und Bots in Ihren Logdateien auftauchen.

Nachdem diese Punkte abgehakt sind, können wir nun zu den möglichen Gründen für Ihre mangelnde Sichtbarkeit in Google kommen.

1. WordPress hält Suchmaschinen vom Indexieren ab

Wenn in WordPress das Kästchen neben "Suchmaschinen davon abhalten, diese Website zu indexieren" markiert ist, weist das CMS Suchmaschinen wie Google und Bing per Robots.txt-Datei an, Ihre Website nicht auszulesen. Diese Einstellung ist standardmäßig oft aktiviert.

Suchmaschinen-Steuerung in WordPress

Auch wenn die Website schon seit Tagen, Wochen oder Jahren online ist, schaue ich hier als erstes nach, wenn ein Seiteninhaber über mangelnde Sichtbarkeit in Google klagt.

2. Robots.txt sperrt Suchmaschinen aus

Wenn Sie folgenden Code in Ihrer Robots.txt sehen, signalisieren Sie den Suchmaschinen, Ihre Zeit nicht auszulesen. 

User-agent: * Disallow: /

Die Inhalte Ihrer Robots.txt-Datei sehen Sie, wenn Sie Ihre Domain gefolgt von /robots.txt in die Adresszeile Ihres Browsers eingeben.

Wie kann es dazu kommen? Es gibt verschiedene Möglichkeiten:

  • Die oben erwähnte WordPress-Einstellung hält Suchmaschinen vom Indexieren ab

  • Die Robots.txt-Datei wurde während früherer Entwicklungsphasen der Website erstellt und der Disallow-Code hat den Go-Live überdauert.

  • Aufgrund von Missverständnissen bezüglich der Funktionsweise der Robots.txt-Datei schleichen sich Fehler ein.

Ich sehe zum Beispiel häufig eine Zeile wie diese in Robots.txt-Dateien:

User-agent: * Disallow:

Sie bedeutet, dass Sie sich eine Indexierung Ihrer Site durch alle Suchmaschinen wünschen. So weit, so gut – doch durch nur ein einziges zusätzliches Zeichen wird daraus die Anweisung an alle Suchmaschinen, die Indexierung zu unterlassen. Ich empfehle daher in der Regel, diese Zeile nicht in die Robots.txt zu schreiben, weil ich Sorge habe, dass jemand daherkommt, einen Schrägstrich hinzufügt und damit die Seite aus Google und Bing verschwinden lässt.

Test-Tools

3. Das Meta-Tag "Noindex" ist gesetzt

Wie die Punkte 1 und 2 ist auch das Meta-Tag "Noindex" ein sicherer Weg, eine Website von den Google-Suchergebnissen auszuschließen. Es kann durch ein WordPress-Plugin oder manuell in den Header der Seite eingebaut werden:

<meta name="robots" content="noindex"/>

Überprüfen Sie wie folgt, ob dieses Problem vorliegt:

  • Öffnen Sie die Website im Browser Ihrer Wahl

  • Klicken Sie mit der rechten Maustaste auf die Seite und wählen Sie “Quelltext anzeigen” o.ä.

  • Suchen Sie nach "robots"

  • Suchen Sie nach "noindex"

Eine andere Möglichkeit, das Meta-Tag aufzuspüren, ist eine Prüfung mit einem geeigneten Crawler oder dem SEMrush Site Audit

4. Probleme bei technischer Umstellung oder Website-Migration

Sind Sie in letzter Zeit mit Ihrer Website in ein neues CMS umgezogen, haben das Theme oder den Hostingprovider gewechselt, von HTTP auf HTTPS umgestellt oder eine andere größere Migration vollzogen? Haben Sie viele URLs geändert und Weiterleitungen eingerichtet – oder dies vergessen? Solche Änderungen wirken sich mit hoher Wahrscheinlichkeit darauf aus, wie Ihre Website für die Suchmaschinen aussieht, und könnten die Robots verwirren.

Hier finden Sie Checklisten für Umstellungen von HTTP auf HTTPS sowie Website-Migrationen, die Ihnen helfen, an alles zu denken und Fehler zu vermeiden. Sie eignen sich auch für eine Fehlersuche im Anschluss.

Wenn Sie eine Migration oder technische Umstellung hinter sich haben, ist es gut möglich, dass Sie den einen oder anderen Punkt übersehen haben.

5. JavaScript & Mega-Menüs

Dies sind zwei unterschiedliche Probleme, die aber oft zusammen auftreten. Wenn Ihre gesamte Navigation in JavaScript programmiert ist, können Suchmaschinen Schwierigkeiten haben, den Links zu folgen, so dass Teile Ihrer Website nicht indexiert werden.

Wenn sogar die ganze Website auf JavaScript beruht, können die Probleme noch größer sein. Bartosz und das Onely-Team haben Daten zu JavaScript-SEO, die in diesem Zusammenhang interessant sind. Auch eine Serie von Google zum Thema lohnt sich.

Bei SEO-freundlicher Implementierung eines Mega-Menüs können immer noch SEO- und Crawling-Probleme auftreten. Hierzu ist ein Twitter-Thread von John Mueller interessant, in dem einige Nutzer kontroverse Meinungen über Mega-Menüs austauschen.

Mega-Menüs haben zweifellos ihre Vorteile, können aber auch Probleme mit sich bringen und dürfen auf dieser Liste nicht fehlen. Wenn die Crawler auf Ihrer Website nicht richtig durchzukommen scheinen, prüfen Sie, ob ausufernder Menü-Code der Grund dafür ist.

6. Weiterleitungen

Eine der häufigsten Problemquellen nach Website-Migrationen sind Weiterleitungen. Insbesondere fehlende Weiterleitungen und Weiterleitungsketten fallen unangenehm auf. Wenn Sie auf eine neue Domain umziehen oder Ihren Seiten neue URLs zuweisen, ohne Weiterleitungen anzulegen, finden Crawler die neuen Adressen nicht.

Wenn Sie sich fragen, was eine Weiterleitungskette ist – nun, das ist einfach. So bezeichnet man mehrere 301- oder 302-Weiterleitungen hintereinander. Ein Browser oder Crawler könnte zum Beispiel auf diese Konstruktion stoßen:

Ankunft auf site.de/seite.php -> 301-Weiterleitung -> site.de/produktseite.php -> 302-Weiterleitung 
site.de/produktseite5.php -> 302-Weiterleitung -> site.de/seite3.php, und hier endlich ein 
Statuscode 200.

Hier finden Sie eine Diskussion der Anmerkungen von John Mueller (Google) (von Ende 2018) zu Weiterleitungen, PageRank und den Gründen, Weiterleitungsketten zu vermeiden. 

7. Weiterleitungen mit und ohne WWW

Obwohl dies strenggenommen unter Punkt 6 fällt, war es mir ein eigenes Thema wert. Ich hatte einmal einen SaaS-Anbieter als Kunden. Dessen Plattform hatte natürlich eine Seite zum Anmelden. Einige der Kunden nutzten Whitelabel-Varianten des Service, und eine lange Reihe von Checks im Quellcode stellten sicher, dass bei jeder Anfrage die richtige Oberfläche übermittelt wurde. Dabei halfen Cookies, Referrer-Informationen und weitere Kriterien.

Ein normaler Nutzer sah nicht, dass diese Seite häufig eine Reihe von Weiterleitungen durchlief. Diese beinhalteten die Statuscodes 404, 302, 301 und weitere – kurz und gut, es war ein Chaos. Das Produktteam kämpfte mit dem Problem, dass es trotz aller Bemühungen nicht gelang, die Anmeldeseite im Google-Index zu platzieren.

Wie Sie sich denken können, war der Grund dafür, dass Google keine Ahnung hatte, wie die valide URL für diese Login-Seite aussah.

Was passiert auf Ihren Startseitenversionen mit und ohne www, jeweils unter HTTP und HTTPS? Werden sie alle aufgelöst oder springt der Nutzer auch hier umher wie ein Tennisball während des Spiels?

Wenn Sie es nicht wissen, empfehle ich https://httpstatus.io/, um es schnell und bequem zu testen. Geben Sie einfach Ihre Domain ein, wählen Sie “Canonical domain check” und klicken Sie auf "Check Status".

Im Idealfall sehen Sie, dass drei der vier Adressen Ihrer Domain zur vierten weiterleiten:

SEO für KMU: Warum findet man uns nicht in Google?. Bild 1

8. Deep Content 

Deep Content bemisst sich häufig in “Klicks von der Homepage” oder “Klicktiefe”. Eine der Ursachen dafür ist Pagination. Deep Content, also Inhalte, die viele Klicks von der Startseite entfernt sind, finden sich am häufigsten in großen Onlineshops oder Blogs.

Eine bequeme Möglichkeit, die Klicktiefe Ihrer Website sowie den betroffenen Content zu ermitteln, bietet das SEMrush Site Audit. Das Tool verrät Ihnen, welche Seiten fünf, sechs, sieben und manchmal sogar mehr als zehn Klicks von der Startseite entfernt sind.

SEO für KMU: Warum findet man uns nicht in Google?. Bild 2

Hier ein Screenshot der Pagination des SEMrush-Blogs – wie erwähnt, erzeugt Pagination häufig Deep Content:

SEO für KMU: Warum findet man uns nicht in Google?. Bild 3

Doch im SEMrush-Blog werden die Inhalte über verschiedene Wege gefunden – Tags, Nutzer-/Autorenseiten, interne Links in Blogartikeln und andere. Auf vielen Websites sind jedoch diese anderen Wege der internen Verlinkung nicht konsequent umgesetzt, und die Site verwendet nur die Startseite sowie vielleicht ein paar Kategorieseiten, um Tausende oder sogar Hunderttausende von Produkten und Seiten zu verlinken. Eine detailliertere Diskussion zum Thema Pagination finden Sie in unserem Artikel “Pagination; You’re Doing it Wrong”.

Wenn also viel von Ihrem Content nicht in Google oder Bing auftaucht und fünf, sechs oder mehr Klicks von der Startseite entfernt ist, sollten Sie ein Audit durchführen und Ihre interne Verlinkung überarbeiten.

9. Seitenladezeit

Obwohl es mir nie untergekommen ist, dass die Ladezeit eine ganze Seite aus Google oder Bing verschwinden lassen hat, sehe ich oft, dass bestimmte Seiten oder Seitentypen betroffen sind. Und dass ich noch nie gesehen habe, wie die Sichtbarkeit einer ganze Website unter langen Ladezeiten leidet, muss nicht heißen, dass es nicht vorkommt.

Wenn Ihr Server nicht oder nur langsam auf die Anfragen der Suchmaschinenrobots reagiert, kann dies Ihre Rankings sinken lassen. Vielleicht noch wichtiger ist, dass langsame Seiten weniger Conversions und Verkäufe erzielen.

Im Web stehen viele Tools stehen zur Verfügung, um die Ladezeit Ihrer Website zu testen, darunter ein neuer Bericht der Google Search Console, Google Analytics und Lighthouse in Chrome. 

SEO für KMU: Warum findet man uns nicht in Google?. Bild 4

Screenshot: https://webmasters.googleblog.com/2019/11/search-console-speed-report.html 

10. Facettensuche

Wenn Sie das Problem noch nicht gefunden haben und Deep oder Thin Content nicht die Antwort zu sein scheint, liegt es vielleicht daran, dass Ihr Onlineshop eine Facettensuche verwendet. Dies führt nicht nur auf E-Commerce-Seiten zu Problemen, doch hier sind sie am häufigsten.

Was ist Facettensuche und warum könnten Suchmaschinen damit Probleme haben? Facettensuche ist die Möglichkeit, Suchergebnisse nach mehreren Kriterien oder eben Facetten einzugrenzen, bei Kleidung etwa Größe, Farbe und Marke. Dadurch können für die Robots Sackgassen und doppelte Inhalte entstehen, während die vielen Kombinationsmöglichkeiten das Crawl-Budget stark beanspruchen. Dies sind nur Beispiele für negative Auswirkungen einer schlecht umgesetzten Facettensuche.

Eigentlich kann Facettensuche für Nutzer und Crawler überaus nützlich sein. Doch hier sind einige Probleme, die dabei auftreten und das Crawling und Ranking beeinträchtigen können:

  • Sie nutzen URL-Variablen, die in unterschiedlicher Reihenfolge auftreten und gleiche Inhalte für Google wie unterschiedliche Seiten aussehen lassen. Folgende drei URLs könnten beispielsweise dieselbe Ergebnisliste ausspielen:

    • /mens/?type=shoes&color=red&size=10

    • /mens/?color=red&size=10&type=shoes

    • /mens/?type=shoes&size=10&color=red

  • Mehrere Pfade, also Seitennavigation vs. Suche

    • Wenn man sich bei Best Buy zu einem montierbaren und Smart-TV-fähigen Fernsehgerät durchklickt, gelangt man auf https://www.bestbuy.com/site/tvs/smart-tvs/pcmcat220700050011.c?qp=features_facet%3DFeatures~Mountable

    • Die sehr gut bei Google platzierte URL hierfür lautet dagegen https://www.bestbuy.com/site/searchpage.jsp?_dyncharset=UTF-8&browsedCategory=pcmcat220700050011&id=pcat17071&iht=n&ks=960&list=y&qp=features_facet%3DFeatures~Mountable&sc=Global&st=pcmcat220700050011_categoryid%24abcat0101001&type=page&usc=All%20Categories

  • Begrenzte Crawl-Tiefe — Begrenzungen der Optionen einer Facettensuche begrenzen mitunter auch die Chancen auf Rankings und führen dazu, dass Sie nicht alle Ihre Stärken zeigen. Beispiel: 

    • Klicken Sie sich bei Grainger vor bis https://www.grainger.com/category/machining/drilling-and-holemaking/counterbores-port-tools/counterbores-with-built-in-pilots?attrs=Material+-+Machining%7CHigh+Speed+Steel&filters=attrs

    • Wenn Sie jedoch bei Google nach “High Speed Steel Counterbores with Built-In Pilots” suchen, finden Sie eine ähnliche, aber nicht dieselbe Seite unter https://www.grainger.com/category/machining/drilling-and-holemaking/counterbores-port-tools/counterbores-with-built-in-pilots.

Obwohl hier jeder Einzelfall individuell ist, beinhalten die Lösungswege oft:

  • Canonical-Tags

  • Disallow via Meta-Tags

  • Disallow via Robots.txt

  • Nofollow-Attribute für interne Links

  • JavaScript und andere Methoden, um Links zu verbergen

11. Ihre Website wurde von Google abgestraft

Dies ist gewissermaßen das Gegenteil von Problem Nr. 5 oben. In diesem Fall verweisen nicht zu wenige Links auf Ihre Seiten, sondern zu viele - und zwar Links der toxischen Art. Sie könnten auch gehackt und deshalb aus dem Index entfernt worden sein. Wahrscheinlicher ist aber, dass Ihre Website einfach zu viele toxische Backlinks verzeichnet.

Wie finden Sie also heraus, ob Google Sie abgestraft hat? Google (oder Bing) sollten es Ihnen mitteilen. Doch wenn Sie nicht sicher sind, finden Sie hier entsprechende Informationen über Ihre Website:

  • Google Search Console

  • Bing Webmaster Tools

  • Durchsuchen Sie Ihr E-Mail-Postfach, das Sie für die Google Search Console verwenden, und suchen Sie nach “google” und “penalty”, um zu prüfen, ob Sie die E-Mail vielleicht übersehen haben.

Zur Frage des Unterschieds zwischen guten und schlechten Links empfehle ich Ross Tavendales Weekly Wisdom about Evaluating Links. Von SEMrushs Backlink Audit erhalten Sie für jeden Ihrer Backlinks einen Toxic Score, so dass Sie einen guten Überblick bekommen, welche Links gefährlich werden könnten.

12. Ihre Site hat keine Backlinks

Wenn Ihre Website noch neu ist, haben Sie wahrscheinlich noch keine oder nur sehr wenige Backlinks. Ein solides Backlink-Profil aufzubauen braucht Zeit. Nutzen Sie die Google Search Console oder SEMrush, um herauszufinden, wie viele eingehende Links Ihre Website hat.

SEMrush zeigt Backlinks an

Auch ohne Backlinks wird Ihre Site von Google und Bing erfasst, aber Sie werden eher nicht mit umkämpften Keywords gefunden. Wenn Ihre Website also technisch fit ist und auffindbare, optimierte Inhalte hat, aber keine Backlinks, spielt dies für die mangelnde Sichtbarkeit sicher eine Rolle.

Ich habe schon öfter erreicht und gesehen, dass Websites ohne Backlinks gute Platzierungen im Suchergebnis hatten. Doch das ist nicht immer für jede Website in jeder Branche möglich.

13. Ihrer Website fehlt Content (und Kontext)

Wenn visuelle Inhalte und textliche Informationen gegeneinander antreten, ziehen Texte oft den Kürzeren. Das führt dazu, dass viele Websites optisch ansprechend sind, aber wenig Raum für Content und Kontext lassen.

Stellen Sie sich eine Kunstgalerie vor, in der die Wände und Böden weiß sind, was die Kunstwerke mehr hervorstechen lässt. Neben ihnen befinden sich kleine Täfelchen mit dem Namen des Künstlers und dem Titel des Werks. Wenn Ihre Website ähnlich aufgebaut ist, fehlt Kontext - und Suchmaschinen brauchen Kontext, um die Kunst, den Künstler und die Gründe für die Aufnahme des Werks in die Ausstellung zu verstehen. 

Häufig befindet sich der gesamte Content einer Seite in einem Bild, das von nur wenig Text begleitet ist, und manchmal wird nirgends wirklich erklärt, was das Unternehmen anbietet. Wie mein Mitgastgeber in unserem Podcasting Guide sagte: Es geht darum, aus Ihrer individuellen Blickweise heraus Ihre Geschichte zu erzählen.

Testen Sie Ihre Website bzw. deren Seiten, indem Sie nur den Haupttext kopieren und jemandem zeigen. Fragen Sie die Person, worum es auf der Seite geht und ob es Klärungsbedarf gibt. Stellen Sie auf Basis des Contents selbst Fragen zu Ihrem Unternehmen und dessen Angeboten. Wenn Sie wenig Content und Kontext auf Ihren Seiten bieten, merken Sie das wahrscheinlich an den Antworten der Versuchsperson.

Wenn Sie ein Fischrestaurant betreiben, aber nirgends Fische und Gerichte erwähnen, können Nutzer oder Suchmaschinen nicht wissen, worum es auf Ihrer Seite geht. Wenn Ihre Produktbeschreibungen dieselben sind wie auf allen anderen Seiten, und keine davon mehr als 30 Wörter umfasst, hat die Suchmaschine keine Möglichkeit, Ihre Seite von den konkurrierenden zu unterscheiden und sich ein genaues Bild von Ihrem Angebot zu machen.

14. Sie haben massenhaft Inhalte – und zwar doppelte

Wenn Ihre Website aus zehn Seiten besteht und sechs davon sind Standortseiten mit 80-99 % identischen Inhalten, bekommen Sie wahrscheinlich Probleme mit dem Ranking. Dasselbe gilt für eine Website mit zehn bis 30 Blogartikeln, aber zehn Kategorie- und 100 Tag-Seiten. Hier ist der Umfang contentarmer Seiten und doppelter Inhalte sehr groß, und der Wert Ihrer Seite in den Augen von Google entsprechend gering.

Stellen Sie sich einen Nutzer vor, der auf Ihrer Website etwas sucht. Wahrscheinlich werden diese dünn bestückten Kategorie- und Tag-Seiten sein Bedürfnis nicht befriedigen. Warum sollte eine Suchmaschine sie also anzeigen?

Wenn Sie sich eingehender über das Problem doppelter Inhalte informieren wollen, lesen Sie How to Identify Duplicate Content. Hier erfahren Sie auch, wie Sie Ihre Seite auf doppelte Inhalte prüfen.

Eine andere Option zum Aufspüren doppelter Inhalte ist das SEMrush Site Audit. Wenn der SEMrush-Robot mehrere Seiten mit mehr als 80 % Übereinstimmung im Content feststellt, werden diese als doppelte Inhalte eingestuft und Ihnen gemeldet. Auch Seiten mit zu wenig Text können als doppelte Inhalte gewertet werden:

SEMrush Site Audit: Duplicate Content

In diesem Beispiel bestand das Problem darin, dass Seite 2 im Zuge eines Updates eine Weiterleitung hätte erhalten sollen, was aber versäumt wurde.

Wenn Sie also Schwierigkeiten haben, in den Suchmaschinen gefunden zu werden, prüfen Sie Ihre Seiten auf zu große Ähnlichkeit, vergleichen Sie sie aber auch mit anderen Websites. Häufig kommt es zum Beispiel vor, dass Dutzende oder sogar Hunderte von Websites gleichlautende Produktbeschreibungen verwenden. Wenn Sie 100 Produkte anbieten und daran nichts Individuelles erkennbar ist, werden Sie es schwer haben, für die entsprechenden Keywords sichtbar zu sein.

15. Ihre Keywords sind umkämpft

Häufig ist das Problem gar nicht, dass eine Website nicht sichtbar wäre, sondern dass sie nicht mit den Keywords gefunden wird, die in der speziellen Nische wichtig sind oder für die der Chef gerne Sichtbarkeit hätte. Unser ausführlicher Leitfaden für die Keyword-Recherche hilft Ihnen, Ihre Ziel-Keywords besser zu definieren (und die Erwartungen der Geschäftsführung zu managen).

Das heißt nicht, dass Sie nie eine Chance haben werden, mit den stark umkämpften Keywords Ihrer Branche sichtbar zu sein. Doch wenn Ihre Website noch eher neu ist, müssen Sie sich diese Sichtbarkeit erst aufbauen und beginnen besser mit Ihren Marken- und weniger umkämpften Longtail-Keywords.

Sind Sie auch schon auf Probleme mit der Sichtbarkeit gestoßen? Wie haben Sie sie gelöst? Wir freuen uns auf Ihr Feedback in den Kommentaren!

Dave Rohrer
Experte

Teilt wertvolle Einblicke und gibt der Unterhaltung Tiefgang.

As an in-house and agency digital leader for more than 20 years, Dave Rohrer has solved problems and increased revenue for companies both large (Internet Retailer 100 & Fortune 500) and small (start-ups & small, local businesses). Dave is the co-host of The Business of Digital Podcast and runs Chicago-based digital agency NorthSide Metrics. Dave is an internationally recognized speaker and can be found sharing his digital marketing wisdom at conferences like PubCon Pro, Midwest Digital Marketing Conference, and the Craft Brewer’s Conference.
Feedback senden
Ihr Feedback muss mindesten drei Wörter (10 Zeichen) enthalten.

Wir verwenden diese E-Mail-Adresse ausschließlich, um auf Ihr Feedback zu antworten. Datenschutzbestimmungen

Vielen Dank für Ihr Feedback!