27 SEO-Fehler, die 2020 am häufigsten die Leistung von Websites beeinträchtigen

Evgeni Sereda

Apr 30, 202014 Min. Lesedauer
27 SEO-Fehler, die 2020 am häufigsten die Leistung von Websites beeinträchtigen

INHALTSVERZEICHNIS

Webmaster stehen täglich vor der Herausforderung, mit den ständigen Updates Schritt zu halten und technische Probleme auf ihren Websites zu vermeiden. Sie finden auch weitere Studien aus 2017 und 2019. 

Wenn Sie jedoch über die häufigsten (und potenziell schädlichsten) Fehler Bescheid wissen, die Websites aktuell plagen und das triffte auch auf die interne Verlinkung zu, haben Sie eine Chance, technische Probleme auf ein Minimum zu beschränken – und bei der Performance ein Maximum zu erreichen. Eine niedrige Webpage-Speed ist auch ein technischer Fehler, den man zum Beispfiel mit der Optimierung der Pagespeed Insights entgegenwirken kann.

Dieser Leitfaden liefert Ihnen eine umfassende Checkliste fürs Site Audit und technische SEO, die Ihnen als Webmaster genau dies ermöglicht – wie groß oder klein Ihre Website auch sein mag.


Wie wir die Daten erhoben haben

Wir haben 250.000 Websites aus verschiedenen Nischen, darunter Gesundheit, Reisen, Sport und Wissenschaft, mit dem SEMrush Site Audit geprüft, um die häufigsten SEO-Fehler zu finden, die ihre Leistung beeinträchtigen.

Insgesamt haben wir analysiert:

  • 310.161.067 Webseiten
  • 28.561.137.301 Links
  • 6.910.489.415 Bilder

Diese Breite der Analyse gab uns genug Einblick, um eine umfassende Site-Audit-Vorlage zu erstellen, mit deren Hilfe Webmaster die häufigsten Fehler auf ihren eigenen Websites vermeiden können.

Es führt kein Weg daran vorbei, dass ein sorgfältiges Site Audit zeitaufwändig ist.

Unsere Studie hat 27 häufige Fehler zutage gefördert, die Sie offensichtlich nicht alle gleichzeitig beheben können. Daher haben wir die Liste in leichter verdauliche Abschnitte eingeteilt, die wir Ihnen hier als praktisch nutzbare Vorlagen zur Verfügung stellen.


1 HTTP-Status- und Server-Probleme

HTTP-Status ist der häufigste SEO-Fehler

Die heikelsten technischen Website-Probleme hängen häufig mit ihrem HTTP-Status zusammen.

Dazu gehören Statuscodes wie Fehler 404 (Seite nicht gefunden), die die Serverantwort auf Anfragen eines Clients wie eines Browsers oder einer Suchmaschine darstellen.

Wenn der Dialog zwischen Client und Server – oder einfacher gesagt, einem Benutzer und Ihrer Website – unterbrochen wird und abreißt, leidet darunter auch das Vertrauen des Benutzers in die Website.

Schwerwiegende Serverprobleme können nicht nur zu Traffic-Verlusten aufgrund unzugänglicher Inhalte führen, sondern auf lange Sicht auch Ihre Rankings schädigen, wenn Google auf Ihrer Website keine geeigneten Ergebnisse für Suchende findet. 

2 Fehler im Zusammenhang mit dem HTTP-Status:

1. 4xx-Fehler
4xx-Fehlercodes bedeuten, dass die angefragte Seite defekt und nicht erreichbar ist. Sie können auch bei funktionierenden Seiten auftreten, wenn etwas die Roboter am crawlen hindert.

2. Seiten nicht gecrawlt
Diese Meldung tritt auf, wenn eine Seite aus einem von zwei Gründen nicht erreichbar ist: 1) Die Antwortzeit Ihrer Website beträgt mehr als fünf Sekunden oder 2) Ihr Server hat den Zugriff auf die Seite verweigert.

3. Defekte interne Links
Dies sind Links, die auf nicht verfügbare Seiten derselben Website verweisen, was Nutzererfahrung (UX) und SEO beeinträchtigt.

4. Defekte externe Links
Hierbei handelt es sich um Links, die Benutzer zu nicht verfügbaren Seiten auf anderen Websites führen, was ebenfalls negative Signale an Suchmaschinen sendet.

5. Defekte interne Bilder
Diese Meldung erscheint, wenn Bilddateien nicht mehr vorhanden oder ihre URLs Schreibfehler enthalten. Dies kann sich negativ auf die Bilder SEO auswirken.

Andere häufige HTTP-Statusfehler sind:

Dauerhafte Weiterleitungen
Vorübergehende Weiterleitungen


2 Unteroptimierte Meta-Tags

Infografik: SEO-Fehler bei Meta-Tags

Meta-Tags helfen Suchmaschinen dabei, die Themen von Webseiten zu identifizieren, um diese mit den Keywords und Phrasen zu verbinden, die Suchmaschinennutzer eingeben.

Optimale Title-Tags verarbeiten Ihre relevanten Haupt-Keywords in eindeutigen, klickwürdigen Linktexten für die Suchergebnisseiten (SERPs).

Meta-Beschreibungen bieten Ihnen eine weitere Möglichkeit, Keywords und verwandte Ausdrücke aufzunehmen. Sie sollten so einzigartig und maßgeschneidert wie möglich sein.

Wenn Sie keine eigenen Meta-Beschreibungen erstellen, generiert Google anhand der Keywords in den Suchanfragen automatisch einen Seitenauszug als Beschreibung des Suchergebnisses. Dies kann dazu führen, dass Suchbegriffe und Ergebnisse nicht zusammenpassen.

Optimierte Title-Tags und Meta-Beschreibungen müssen die relevantesten Keywords enthalten, die richtige Länge haben und nach Möglichkeit Doppelungen vermeiden.

Einige Branchen, z. B. der Online-Modehandel, können keine eindeutigen Beschreibungen für jedes einzelne Produkt erstellen. Daher müssen sie mit anderen Textinhalten auf ihren Seiten einen eindeutigen Wert erkennen lassen.

Wenn individuelle Metadaten für jede Seite praktisch realisierbar sind, nutzen Sie diese Möglichkeit, um Ihrer Website die größtmögliche Wirkung auf den SERPs zu verschaffen.

Die häufigsten Meta-Tag-Fehler:

6. Doppelte Title-Tags und Meta-Beschreibungen
Zwei oder mehr Seiten mit denselben Titeln und Beschreibungen erschweren es Suchmaschinen, deren Relevanz und damit Rankings richtig zu bestimmen.

7. Fehlende H1-Tags
Mithilfe von H1-Tags können Suchmaschinen das Thema Ihres Contents bestimmen. Wenn sie fehlen, entstehen Lücken in Googles Verständnis Ihrer Website.

8. Fehlende Meta-Beschreibungen
Gut geschriebene Meta-Beschreibungen helfen Google, die Relevanz der Seite einzuschätzen, und motivieren Nutzer, auf Ihr Ergebnis zu klicken. Wenn sie fehlen, drohen sinkende Klickraten. Relevanz und Nutzersignale auf den Suchergebnisseiten gehören zu den wichtigsten Rankingfaktoren.

9. Fehlende ALT-Attribute
ALT-Attribute bieten Suchmaschinen und sehbehinderten Personen Beschreibungen der Bilder in Ihren Inhalten. Ohne sie geht Relevanz verloren und die Nutzerbindung kann sinken. 

10. Doppelte Inhalte in H1- und Title-Tags
Wenn H1-Tags und Title-Tags auf einer Seite identisch sind, kann dies nach Überoptimierung aussehen. Außerdem entgehen Ihnen dadurch in vielen Fällen Chancen, für andere relevante Keywords sichtbar zu sein.

Andere häufige Fehler bei den Meta-Tags sind:

Kurze/lange Title-Elemente
Mehrere H1-Tags


3 Duplikate

Infografik: SEO-Fehler-Duplikate

Doppelte Inhalte können Ihre Rankings beschädigen – und bis zur Erholung kann es eine Weile dauern.

Vermeiden Sie es, Inhalte jeglicher Art von Website zu duplizieren, unabhängig davon, ob es sich um direkte Konkurrenten handelt oder nicht.

Prüfen Sie Ihre Website auf doppelte Beschreibungen, Textabsätze oder ganze Abschnitte, identische H1-Tags auf mehreren Seiten sowie URL-Probleme, z. B. WWW- und Nicht-WWW-Versionen derselben Seite.

Achten Sie darauf, dass jedes Detail einzigartig ist, damit Ihre Seiten nicht nur in den Augen von Google ein Ranking verdienen, sondern auch für die Nutzer attraktiv sind. 

Die häufigsten Dopplungsprobleme

11. Doppelte Inhalte
Das Site Audit kennzeichnet doppelte Inhalte, wenn beispielsweise Seiten auf Ihrer Website dieselbe URL oder identische Textinhalte aufweisen. Dies können Sie durch Hinzufügen eines Canonical-Links (rel="canonical") zu einem der Duplikate oder durch Verwendung einer 301-Weiterleitung beheben.

Andere häufige Dopplungsprobleme sind:

Doppelte Inhalte in H1- und Title-Tags
Doppelte Meta-Beschreibungen


4 Unzureichend optimierte externe und interne Verlinkung

SEO-Fehler: Unzureichend optimierte Verlinkung

Die Links, die Ihre Besucher durch die Customer Journeys führen, bestimmen wesentlich die Nutzerfreundlichkeit. Wenn hier Mängel bestehen, beeinträchtigt dies auch die Performance der betroffenen Seiten in der Websuche. Seiten mit schlechter Benutzererfahrung erhalten von Google kein Ranking.

Unsere Studie ergab, dass fast die Hälfte der Websites, die wir mit dem Site Audit geprüft haben, Probleme mit internen und externen Links aufweisen. Dies deutet darauf hin, dass ihre Linkarchitekturen nicht optimiert sind.

Einige der Links selbst weisen Unterstriche in den URLs auf, enthalten Nofollow-Attribute und verweisen auf HTTP- statt auf HTTPS-Seiten – all dies kann sich auf die Rankings auswirken.

Mit dem Site Audit können Sie defekte Links auf Ihrer Website leicht aufspüren. Im nächsten Schritt sollten Sie ermitteln, welche die größten Auswirkungen auf die Benutzerinteraktion haben, und diese in der Reihenfolge ihrer Priorität korrigieren.

Die häufigsten Verlinkungsproblemen:

12. Links auf einer HTTPS-Website, die auf HTTP-Seiten verweisen
Links zu alten HTTP-Seiten können zu einem unsicheren Datenaustausch zwischen Benutzer und Server führen. Stellen Sie also sicher, dass alle Ihre Links auf dem neuesten Stand sind.

13. URLs mit Unterstrichen
Suchmaschinen können Unterstriche falsch interpretieren und Ihren Site-Index falsch dokumentieren. Verwenden Sie stattdessen Bindestriche für Ihre URL-Struktur.

Andere häufige Fehler bei der Verlinkung sind:

Defekte interne Links
Defekte externe Links
Nofollow-Attribute in externen Links
Seiten mit nur einem internen Link
Mehr als 3 Klicks Seitencrawltiefe


5 Crawlability Probleme

SEO-Fehler: Probleme bei der Crawlbarkeit

Die Crawlbarkeit ist neben der Indexierbarkeit einer der entscheidenden Indikatoren für den technischen Zustand einer Website.

Die Crawlbarkeit Ihrer Website wirkt sich direkt auf Ihre Chancen aus, gute Rankings in den SERPs zu erzielen.

Wenn Sie technische Crawlingprobleme bei Ihrer SEO ignorieren und die Seiten nicht gecrawlt werden können, sind Ihre Seiten möglicherweise nicht so sichtbar für Google, wie sie sein sollten.

Beheben Sie diese Probleme, um Google dabei zu helfen, die richtigen Links für die richtigen Nutzer in den SERPs zu platzieren.

Sie können technische Crawlingprobleme vermeiden, indem Sie Ihre Site auf fehlerhafte oder blockierte Elemente untersuchen, die die Crawlbarkeit einschränken.

Kevin Indig, VP für SEO & Content bei G2dotcom, betont die Wichtigkeit der Synergie zwischen Sitemaps und robots.txt:

Mich hat überrascht, dass viele XML-Sitemaps nicht in der robots.txt referenziert sind. Das scheint mir ein Standard zu sein. Weniger überrascht mich der hohe Anteil an Websites mit nur einem internen Link zu Seiten oder sogar verwaisten Seiten. Dies ist ein klassisches Problem mit der Website-Struktur, für das nur SEO-Experten ein Bewusstsein haben.

Wenn in Ihrer robots.txt keine XML-Sitemap aufgeführt ist, kann dies dazu führen, dass Suchmaschinen-Crawler Ihre Site-Architektur falsch interpretieren, so Matt Jones, SEO- und CRO-Manager bei Rise at Seven:

Sitemap.xml-Dateien helfen Crawlern, die auf Ihrer Website vorhandenen URLs zu identifizieren und zu finden. Sie sind daher eine fantastische Möglichkeit, um den Suchmaschinen ein umfassendes Verständnis Ihrer Website zu ermöglichen und dadurch höhere Rankings für mehr relevante Begriffe zu erhalten.

Die häufigsten Probleme, auf die Website-Crawler stoßen:

14. Nofollow-Attribute in ausgehenden internen Links
Interne Links mit Nofollow-Attributen verhindern die Weitergabe von Link-Autorität auf Ihrer Website.

15. Falsche Seiten in sitemap.xml
Ihre sitemap.xml sollte keine defekten Seiten enthalten. Überprüfen Sie, ob Weiterleitungsketten und nicht kanonische Seiten vorhanden sind, und stellen Sie sicher, dass sie einen Statuscode 200 zurückgeben.

16. Sitemap.xml nicht gefunden
Fehlende Sitemaps erschweren es Suchmaschinen, die Seiten Ihrer Website zu finden, zu crawlen und zu indexieren. 

17. Sitemap.xml nicht in robots.txt angegeben
Ohne einen Link zu Ihrer sitemap.xml in Ihrer robots.txt-Datei können Suchmaschinen die Struktur Ihrer Website nicht vollständig verstehen.

Andere häufige Fehler bei der Crawlbarkeit sind:

Seiten nicht gecrawlt
Defekte interne Bilder
Defekte interne Links
URLs enthalten Unterstricke
4xx-Fehler
Ressourcen als Seitenlinks formatiert
Blockierte externe Ressourcen in robots.txt
Nofollow-Attribute in ausgehenden externen Links
Crawling blockiert
Seiten mit nur einem internen Link
Verwaiste Sitemap-Seiten
Mehr als 3 Klicks Seitencrawltiefe
Vorübergehende Weiterleitungen


6 Probleme bei der Indexierbarkeit

SEO-Fehler: Probleme bei der Indexierbarkeit

Indikatoren einer guten Indexierbarkeit sind für SEO entscheidend. Einfach ausgedrückt: Wenn eine Seite nicht indexiert ist, ist sie für die betreffende Suchmaschine unsichtbar – und für deren Benutzer auch.

Viele Faktoren können die Indexierung Ihrer Website verhindern, selbst wenn Sie keine Probleme mit der Crawlbarkeit feststellen.

Beispielsweise können doppelte Metadaten und Inhalte es Suchmaschinen erschweren, zu identifizieren, welche Seiten für ähnliche Suchbegriffe angezeigt werden sollen.

Im Rahmen unserer Untersuchung zeigte fast die Hälfte der geprüften Websites Indexierungsprobleme, die durch doppelte Title-Tags, Beschreibungen und Textinhalte verursacht werden.

Dies kann Google zu eigenen Entscheidungen darüber zwingen, welche Seiten im Suchergebnis erscheinen sollen. Doch Webmaster können solche Probleme vermeiden und Google klar mitteilen, welche Seite sich mit welchem Thema beschäftigt.

Eine ganze Reihe verschiedener Probleme kann die Indexierbarkeit Ihrer Website beeinträchtigen, von geringer Wortzahl bis hin zu hreflang-Lücken oder Konflikten bei mehrsprachigen Websites.

Die häufigsten Probleme mit nicht indexierbaren Websites:

18. Kurze/lange Title-Tags
Title-Tags mit mehr als 60 Zeichen werden in den SERPs abgekürzt, während Sie mit deutlich weniger als 60 Zeichen möglicherweise Chancen zur weiteren Optimierung ungenutzt lassen.

19. Hreflang-Konflikte im Seitenquellcode
Mehrsprachige Websites können Suchmaschinen verwirren, wenn das hreflang-Attribut mit dem Quellcode einer Seite in Konflikt steht.

20. Probleme mit falschen hreflang-Links
Defekte hreflang-Links können zu Problemen bei der Indexierung führen, wenn beispielsweise relative anstelle absoluter URLs verwendet werden, also z. B. /blog/ihr-artikel anstelle von https://ihrewebsite/blog/ihr-artikel.

21. Niedrige Wortzahlen
Das Site Audit kann auf Seiten hinweisen, die zu wenig Inhalt bieten. Es lohnt sich, diese zu überprüfen und so informativ wie möglich zu gestalten.

22. Fehlende hreflang- und lang-Attribute
Dieses Problem wird gemeldet, wenn auf einer Seite einer mehrsprachigen Website die nötigen Links oder Tags fehlen, um Suchmaschinen mitzuteilen, welche Inhalte an die Benutzer in den einzelnen Regionen ausgespielt werden sollen.

23. AMP-HTML-Probleme
Dieses Problem betrifft mobile Benutzer Ihrer Website und wird gemeldet, wenn der HTML-Code nicht den AMP-Standards entspricht.

Andere häufige Probleme mit der Indexierbarkeit sind: 

Doppelte H1-Tags
Doppelte Inhalte
Doppelte Title-Tags
Doppelte Meta-Beschreibungen
Fehlende H1-Tags
Mehrere H1-Tags
Hreflang-Konflikte im Seitenquellcode


7 Verzicht auf Accelerated Mobile Pages (AMPs)

Mobile SEO-Fehler

Es ist wichtig, dass Sie Ihre Onpage-SEO auf die Schaffung einer mobilfreundlichen Website auch mit Mobile SEO ausrichten.

Wir wissen, dass die Mobilfreundlichkeit ab September 2020 auf sowohl Mobilgeräten wie Desktops ein  Ranking-Faktor für Google sein wird.

Bis dahin sollten Sie als Webmaster sicherstellen, dass der HTML-Code Ihrer Website den AMP-Richtlinien von Google entspricht, um für Mobilgeräte bereit zu sein und mögliche Schäden an Ihren Rankings zu vermeiden.

Überprüfen Sie Ihre Website mit dem Site Audit auf ungültige AMP-Seiten, um herauszufinden, was behoben werden muss. Probleme können beim HTML-Code, bei Styles, Layout oder Seitentemplates auftreten.

Das häufigste Problem bei der Mobilfreundlichkeit:

AMP-HTML-Probleme können bei Styles oder Layout auftreten und, wie oben erwähnt, die Indexierbarkeit einer Website beeinträchtigen.

Lesen Sie diese Studie zu den häufigsten AMP Fehler.


8 Vernachlässigung der Website-Performance

SEO-Fehler bei der Website-Performance

Die Seitenladezeit ist für SEO und Online-Marketing ein wichtiger Punkt, und ihre Bedeutung nimmt zu. Je langsamer Ihre Website ist, desto weniger Benutzer werden die Geduld haben, auf den Ladevorgang zu warten.

Sie können sich Vorschläge zur Verbesserung der Geschwindigkeit Ihrer Website auf Mobilgeräten und Desktops direkt von Google abholen. Erfahren Sie, wie Sie die Seitenladezeit messen und den Google Pagespeed Insights Score verbessern und Möglichkeiten identifizieren, Ihre Website schneller zu machen.

Der Geschwindigkeitstest von Google kann in Verbindung mit dem SEMrush Site Audit beispielsweise überkomplizierte JavaScript- oder CSS-Dateien aufdecken, wie sie bei vielen Websites in unserer Studie gefunden wurden.

Gerry White, SEO Director bei Rise at Seven, erinnert daran, dass die Minifizierung von Code ein schneller Gewinn für die Website-Performance und die Benutzererfahrung ist:

Einer der auffälligen Aspekte bei den Daten ist die Anzahl der Quick Wins für die Ladezeit. Es geht dabei nicht nur um Rankings, sondern auch um den Nutzer und die Conversions. Daher würde ich mich hier auf die einfachen, schnellen Gewinne konzentrieren, die normalerweise ohne allzu großen Entwicklungsaufwand erzielt werden können. Aufgaben wie die Komprimierung von JavaScript und CSS dauern nur Minuten, können aber auf vielen Websites enorme Verbesserungen bewirken. Gleichzeitig sollte jeder Webmaster sicherstellen, dass HTTPS mit HTTP2 aktiviert ist.

Die häufigsten Probleme bei der Website-Performance: 

24. Probleme mit gemischten Inhalten
Dieses Problem ähnelt der Nummer 12 insofern, als es auftritt, wenn Teile Ihrer Website nicht mit dem HTTPS-Protokoll gesichert sind. Ersetzen Sie alle HTTP-Links durch die neuen HTTPS-Versionen.

25. Lange Ladezeit (HTML)
Die Zeit, die eine Seite benötigt, um von einem Browser vollständig gerendert zu werden, sollte so kurz wie möglich sein, da sich die Geschwindigkeit direkt auf Ihre Rankings auswirkt.

26. JavaScript- und CSS-Dateien ohne Caching
Dieses Problem kann sich auf die Ladezeit Ihrer Website auswirken und tritt auf, wenn im Antwortheader kein Browser-Caching angegeben ist. 

27. JavaScript- und CSS-Dateien ohne Minification
Hier geht es darum, JavaScript- und CSS-Elemente zu verkleinern. Entfernen Sie unnötige Zeilen, Kommentare und Leerzeichen, um die Ladegeschwindigkeit der Seite zu erhöhen.


9 Kategorieübergreifende Probleme

In einigen Fällen berühren die vom Site Audit ausgegebenen Fehler, Warnungen und Hinweise mehrere Kategorien.

Dies bedeutet, dass sie eine ganze Reihe von Problemen für Ihre Website verursachen können, wie unten dargestellt. Daher ist empfehlenswert, sie als Prioritäten zu behandeln.

SEO-Fehler: Kategorieübergreifende Website-Probleme


Regelmäßiges Site Audit ist wichtig

Wenn Ihnen einer dieser SEO-Fehler unterläuft, kann Ihre Website vielleicht nicht ihr volles Potenzial entfalten. Daher ist es wichtig, dass Sie diese Fehlerpotenziale als Webmaster durch regelmäßige Site Audits im Blick behalten.

Mit dieser Checkliste können Sie verhindern, dass rollende Schneebälle zu Lawinen werden – ob Probleme mit der Crawlbarkeit verhindern, dass Seiten indexiert werden, oder Probleme mit Dopplungen mögliche Google-Strafen herausfordern.

Machen Sie es sich zur Gewohnheit, sich mit Tools wie Site Audit um den SEO- und UX-Status Ihrer Website zu kümmern. Als Belohnung für die Mühe winken Gewinne bei Sichtbarkeit und Nutzerinteresse in Größenordnungen, die sich spürbar positiv auf Ihr Geschäftsergebnis auswirken.

Laden Sie unser PDF-Poster mit den größten SEO-Fehlern herunter und drucken Sie es aus, um die Checkliste stets griffbereit zu haben.

Weitere Studien zum Vergleich

Die 80 häufigsten Fehler auf E-Commerce-Websites - eine Studie von 2019

Um die Unternehmer-Community zu unterstützen, haben wir mit dem SEMrush Site Audit nachgeforscht, von welchen Fehlern und Problemen E-Commerce-Websites am häufigsten betroffen sind. Wir haben 1.300 Online-Shops nach 80 technischen und SEO-Problemen abgesucht. Diese reichen von geringfügigen Störfaktoren bis zu ernsthaften Fehlern.

Die Analyse berücksichtigt alle geläufigen OnPage- und technischen SEO-Probleme, einschließlich Probleme mit der HTTPS-Implementierung, hreflang-Attributen, der Crawlbarkeit, der Seitenarchitektur und weitere.

80 SEO Fehler E-Commerce
80 SEO Fehler bei den Onlineshops

40 technische SEO-Fehler - eine Studie von 2017

Wir haben eine Studie über die Häufigkeit diverser SEO-Fehler 2017 durchgeführt. Dazu haben wir mit dem SEMrush Site Audit anonyme Daten von 100.000 Websites und 450 Millionen Einzelseiten gesammelt, um die häufigsten technischen Onsite- und SEO-Fehler sowie Optimierungslücken zu ermitteln.

Unten finden Sie die aktuellen Statistiken zu 40 Prüfkriterien, eingeteilt in drei Kategorien:

  • Crawlbarkeit
  • Technisches SEO
  • Onpage-SEO

Gleichzeitig haben wir die Methodik um eine neue Dimension ergänzt: ein Rating der Dringlichkeit jedes SEO-Problems. Dafür verwenden wir eine Skala von 1 bis 5, wobei 5 die höchste Dringlichkeit bedeutet.

Dieser Indikator bildet nicht nur den Einfluss des Fehlers auf das Suchmaschinenranking ab, sondern auch seine Bedeutung für Website-Performance und Nutzerfreundlichkeit. Ein solches Rating erschien uns nötig, weil manche Probleme nur selten auftauchen, aber eine hohe Dringlichkeit aufweisen. Diese sollten nicht übersehen werden.

Zusammen bieten Ihnen die vorliegenden Daten über Häufigkeiten und Dringlichkeiten ein vollständiges Bild der untersuchten Fehler. So können Sie bestmöglich die damit verbundenen Risiken beurteilen und im Anschluss an Ihr Webseiten-Audit sinnvoll Prioritäten setzen.

40 SEO Fehler 2017
40 SEO Fehler 2017

Teilen
Author Photo
Seit 5 Jahren verantworte ich das Marketing von Semrush in den deutschsprachigen Ländern. Seit 2010 bin ich ein leidenschaftlicher SEO. Die Kombination aus SEO und Marketing setzte ich bei großen Projekten wie die Implementierung der SEO-Maßnahmen und Marketing-Prozessen bei einem großen Retailer. Dabei betreue ich auch kleine Projekte, denn auch mal Hand anzulegen, das macht mir viel Spass. Meine Erfahrung und mein Wissen teile ich gerne mit dir.