Um unsere Inhalte mehr Nutzern zugänglich zu machen, haben wir diesen Artikel mit automatischer Übersetzung aus dem Englischen ins Deutsche übertragen. Klicke hier, um den Originalartikel zu lesen. Wenn dir am Inhalt Probleme auffallen, schicke uns gerne eine Nachricht an report-osteam@semrush.com.
Was ist ein technisches SEO-Audit?
Bei einem technischen SEO-Audit werden die technischen Aspekte einer Website im Zusammenhang mit der Suchmaschinenoptimierung analysiert. Diese Prüfung hilft dir sicherzustellen, dass Suchmaschinen wie Google die Seiten deiner Website crawlen, indexieren und bewerten können.
Du kannst technische Probleme finden und beheben, indem du deine Website regelmäßig überprüfst. Mit der Zeit wird sich dadurch die Leistung deiner Website in den Suchmaschinen verbessern.
Wie man ein technisches SEO-Audit durchführt
Für ein technisches Website-Audit brauchst du vor allem zwei Werkzeuge:
- Google Search Console12
- Ein Crawl-basiertes Tool, wie Semrushs Site Audit
Wenn du die Search Console noch nicht benutzt hast, lies unseren Leitfaden für Einsteiger, um zu erfahren, wie du sie einrichtest. Im Folgenden gehen wir auf die verschiedenen Berichte des Tools ein.
Und wenn du neu bei Site Audit bist, kannst du dich kostenlos anmelden und innerhalb weniger Minuten loslegen.
Das Site Audit Tool scannt deine Website und liefert Daten über alle Seiten, die es crawlen kann. Der Bericht, den er erstellt, hilft dir, eine Vielzahl von technischen SEO-Problemen zu erkennen.
Die Übersicht sieht so aus:
Um deinen ersten Crawl einzurichten, musst du zunächst ein Projekt erstellen.
Als Nächstes gehst du zum Tool Site Audit und wählst deine Domain aus.
Das Fenster "Einstellungen für die Standortprüfung" wird geöffnet. Hier konfigurierst du die Grundlagen für deinen ersten Crawl. Du kannst dieser detaillierten Einrichtungsanleitung folgen, um die Einstellungen vorzunehmen.
Klicke abschließend auf die Schaltfläche "Site Audit starten" am unteren Rand des Fensters.
Nachdem das Tool deine Website gecrawlt hat, erstellt es einen Überblick über den Zustand deiner Website mit der Metrik Site Health.
Diese Kennzahl bewertet den Zustand deiner Website auf einer Skala von 0 bis 100. Und zeigt dir, wie du im Vergleich zu anderen Websites in deiner Branche abschneidest.
Du erhältst außerdem einen Überblick über deine Probleme nach Schweregrad (über die Kategorien "Fehler", "Warnungen" und "Hinweise"). Oder du kannst dich mit den "Thematischen Berichten" auf bestimmte Bereiche der technischen SEO konzentrieren. (Zu denen kommen wir später.)
Wechsle schließlich zur Registerkarte "Probleme". Dort siehst du eine vollständige Liste aller Ausgaben. Zusammen mit der Anzahl der betroffenen Seiten.
Jede Problemzeile enthält einen "Warum und wie man es beheben kann"-Link. Wenn du darauf klickst, erhältst du eine kurze Beschreibung des Problems, Tipps, wie du es beheben kannst, und nützliche Links zu relevanten Tools oder Ressourcen.
Die Themen, die du hier findest, lassen sich in eine von zwei Kategorien einordnen, je nachdem, wie gut du bist:
- Probleme, die du selbst lösen kannst
- Probleme, bei deren Behebung dir ein Entwickler oder Systemadministrator helfen muss
Wenn du zum ersten Mal mit einem Audit konfrontiert wirst, kann es dir so vorkommen, als gäbe es einfach zu viel zu tun. Deshalb haben wir diesen detaillierten Leitfaden zusammengestellt. Das hilft vor allem Anfängern, damit sie nichts Wichtiges verpassen.
Wir empfehlen, für jede neue Website, mit der du arbeitest, ein technisches SEO-Audit durchzuführen.
Danach solltest du deine Website mindestens einmal pro Quartal (idealerweise monatlich) überprüfen. Oder immer dann, wenn du einen Rückgang in den Rankings feststellst.
1. Crawlability- und Indexability-Probleme erkennen und beheben
Google und andere Suchmaschinen müssen in der Lage sein, deine Webseiten zu crawlen und zu indizieren, um sie zu bewerten.
Deshalb sind Crawl- und Indexierbarkeit ein wichtiger Bestandteil von SEO.
Um zu prüfen, ob deine Website Probleme mit der Crawl- oder Indexierbarkeit hat, gehst du im Site Audit auf den Reiter "Probleme".
Dann klickst du auf "Kategorie" und wählst "Crawlability".
Du kannst den gleichen Vorgang mit der Kategorie "Indexierbarkeit" wiederholen.
Probleme im Zusammenhang mit der Crawl- und Indexierbarkeit stehen oft ganz oben in den Ergebnissen - im Abschnitt "Fehler" -, weil sie oft sehr schwerwiegend sind.
Wir werden mehrere dieser Themen in verschiedenen Abschnitten dieses Leitfadens behandeln. Denn viele technische SEO-Probleme hängen auf die eine oder andere Weise mit der Crawlability und Indexability zusammen.
Jetzt schauen wir uns zwei wichtige Website-Dateien genauer an - robots.txt und sitemap.xml -, dieeinen großen Einfluss darauf haben, wie Suchmaschinen deine Website finden.
Robots.txt-Probleme prüfen und beheben
Robots.txt ist eine Textdatei auf der Website, die Suchmaschinen mitteilt, welche Seiten sie crawlen sollen und welche nicht. Sie befindet sich normalerweise im Stammordner der Website: https://domain.com/robots.txt.
Eine robots.txt-Datei hilft dir dabei:
- Suchmaschinen-Bots von privaten Ordnern fernhalten
- Bots daran hindern, die Serverressourcen zu überlasten
- Gib den Speicherort deiner Sitemap an
Eine einzige Codezeile in der robots.txt kann verhindern, dass Suchmaschinen deine gesamte Website crawlen. Du musst also sicherstellen, dass deine robots.txt-Datei keine Ordner oder Seiten verbietet, die in den Suchergebnissen erscheinen sollen.
Um deine robots.txt-Datei zu überprüfen, öffne Site Audit und scrolle zum Feld "Robots.txt Updates" am unteren Rand.
Hier siehst du, ob der Crawler die robots.txt-Datei auf deiner Website entdeckt hat.
Wenn der Dateistatus "Verfügbar" ist, kannst du deine robots.txt-Datei überprüfen, indem du auf das Link-Symbol neben der Datei klickst.
Du kannst dich auch nur auf die Änderungen in der robots.txt-Datei seit dem letzten Crawl konzentrieren, indem du auf die Schaltfläche " Änderungenanzeigen " klickst.
Weitere Lektüre: Die Überprüfung und Korrektur der robots.txt-Datei erfordert technisches Wissen. Du solltest immer die robots.txt-Richtlinien von Google befolgen. Lies unseren Leitfaden zu robots.txt, um mehr über die Syntax und die besten Praktiken zu erfahren.
Um weitere Probleme zu finden, kannst du den Reiter "Probleme" öffnen und nach "robots.txt" suchen. Einige Probleme, die auftreten können, sind die folgenden:
- Robots.txt-Datei hat Formatfehler
- Sitemap.xml nicht in der robots.txt angegeben
- Blockierte interne Ressourcen in der robots.txt
Klicke auf den Link mit der Anzahl der gefundenen Ausgaben. Von dort aus kannst du sie im Detail untersuchen und lernen, wie du sie reparieren kannst.
Hinweis: Neben der Datei robot.txt gibt es zwei weitere Möglichkeiten, den Crawlern von Suchmaschinen weitere Anweisungen zu geben: das robots-Meta-Tag und das x-robots-Tag. Site Audit weist dich auf Probleme mit diesen Tags hin, die du in unserem Leitfaden zu den Robots-Meta-Tags nachlesen kannst.
XML-Sitemap-Probleme erkennen und beheben
Eine XML-Sitemap ist eine Datei, die alle Seiten auflistet, die von Suchmaschinen indiziert und im Idealfall auch bewertet werden sollen.
Überprüfe deine XML-Sitemap bei jedem technischen SEO-Audit, um sicherzustellen, dass sie alle Seiten enthält, die du ranken willst.
Andererseits ist es wichtig zu überprüfen, dass die Sitemap keine Seiten enthält, die du nicht in den SERPs sehen willst. Zum Beispiel Anmeldeseiten, Seiten für Kundenkonten oder Gated Content.
Hinweis: Wenn deine Website keine sitemap.xml-Datei hat, lies unsere Anleitung zum Erstellen einer XML-Sitemap.
Prüfe als Nächstes, ob deine Sitemap richtig funktioniert.
Das Site Audit-Tool kann häufige Probleme im Zusammenhang mit der Sitemap erkennen, z. B:
- Falsche Seiten in deiner Sitemap
- Formatierungsfehler in deiner Sitemap
Alles, was du tun musst, ist, auf den Reiter "Themen" zu gehen und "Sitemap" in das Suchfeld einzugeben:
Du kannst auch die Google Search Console verwenden, um Probleme mit der Sitemap zu erkennen.
Besuche den Bericht "Sitemaps", um deine Sitemap an Google zu übermitteln, deinen Übermittlungsverlauf einzusehen und eventuelle Fehler zu überprüfen.
Du findest sie, indem du auf "Sitemaps" unter dem Abschnitt "Indexierung" auf der linken Seite klickst.
Wenn du "Erfolg" neben deiner Sitemap siehst, liegen keine Fehler vor. Aber die anderen beiden möglichen Ergebnisse - "Hat Fehler" und "Konnte nicht abrufen" - weisen auf ein Problem hin.
Wenn es Probleme gibt, werden sie im Bericht einzeln gekennzeichnet. Du kannst der Anleitung von Google zur Fehlerbehebung folgen und sie beheben.
Weitere Lektüre: XML-Sitemaps
2. Prüfe deine Website-Architektur
Die Website-Architektur bezieht sich auf die Hierarchie deiner Webseiten und wie sie durch Links verbunden sind. Du solltest deine Website so organisieren, dass sie für die Nutzerinnen und Nutzer logisch ist und sich leicht pflegen lässt, wenn deine Website wächst.
Eine gute Website-Architektur ist aus zwei Gründen wichtig:
- Es hilft den Suchmaschinen, die Beziehungen zwischen deinen Seiten zu erfassen und zu verstehen
- Sie hilft den Nutzern bei der Navigation auf deiner Website
Werfen wir einen Blick auf die drei wichtigsten Aspekte der Website-Architektur.
Standort-Hierarchie
Die Site-Hierarchie (oder einfach die Site-Struktur) zeigt, wie deine Seiten in Unterordnern organisiert sind.
Um einen guten Überblick über die Hierarchie deiner Website zu erhalten, gehe auf den Reiter "Gecrawlte Seiten" in Site Audit.
Schalte dann die Ansicht auf "Site Structure" um.
Du erhältst eine Übersicht über die Subdomains und Unterordner deiner Website. Überprüfe sie, um sicherzustellen, dass die Hierarchie organisiert und logisch ist.
Strebe eine flache Website-Architektur an, die wie folgt aussieht:
Im Idealfall sollte ein Nutzer nur drei Klicks brauchen, um die gewünschte Seite auf der Startseite zu finden.
Wenn du mehr als drei Klicks brauchst, ist die Hierarchie deiner Website zu tief. Suchmaschinen betrachten Seiten, die tiefer in der Hierarchie stehen, als weniger wichtig oder relevant.
Um sicherzustellen, dass alle deine Seiten diese Anforderung erfüllen, bleibst du auf der Registerkarte "Gecrawlte Seiten" und wechselst zurück zur Ansicht "Seiten".
Dann klickst du auf "Weitere Filter" und wählst die folgenden Parameter aus: " Crawl-Tiefe" ist "4+ Klicks".
Um dieses Problem zu beheben, füge interne Links zu Seiten hinzu, die zu tief in der Struktur der Website liegen. (Mehr zur internen Verlinkung im nächsten Kapitel).
Navigationsorientiert
Die Navigation auf deiner Website (z. B. Menüs, Links in der Fußzeile und Breadcrumbs) sollte es den Nutzern leichter machen, sich auf deiner Website zurechtzufinden.
Dies ist eine wichtige Säule einer guten Website-Architektur.
Deine Navigation sollte sein:
- Einfach. Versuche, Mega-Menüs oder nicht standardisierte Namen für Menüpunkte zu vermeiden (z.B. "Idea Lab" statt "Blog")
- Logisch. Sie sollte die Hierarchie deiner Seiten widerspiegeln. Eine gute Möglichkeit, dies zu erreichen, ist die Verwendung von Paniermehl.
Es ist schwieriger, auf einer Website mit unordentlicher Architektur zu navigieren. Umgekehrt ist die Architektur einer Website mit einer klaren und benutzerfreundlichen Navigation sowohl für Nutzer als auch für Bots leichter zu verstehen.
Kein Tool kann dir helfen, benutzerfreundliche Menüs zu erstellen. Du musst deine Website manuell überprüfen und die UX Best Practices für die Navigation befolgen.
URL-Struktur
Wie die Hierarchie einer Website sollte auch die URL-Struktur einer Website einheitlich und leicht zu verstehen sein.
Nehmen wir an, ein Website-Besucher folgt der Menüführung für Mädchenschuhe:
Homepage > Kinder > Mädchen > Schuhe
Die URL sollte die Architektur widerspiegeln:
domain.com/kinder/maedchen/schuhwerk
Manche Websites sollten auch eine URL-Struktur verwenden, die zeigt, dass eine Seite oder Website für ein bestimmtes Land relevant ist. Zum Beispiel kann eine Website für kanadische Nutzer eines Produkts entweder "domain.com/ca" oder "domain.ca" verwenden.
Und schließlich solltest du sicherstellen, dass deine URL-Slugs benutzerfreundlich sind und den Best Practices entsprechen.
Site Audit hilft dir, einige häufige Probleme mit URLs zu erkennen, wie z. B:
- Verwendung von Unterstrichen in URLs
- Zu viele Parameter in URLs
- URLs, die zu lang sind
Weitere Lektüre: Website-Architektur
3. Behebe Probleme mit der internen Verlinkung
Interne Links sind Links, die von einer Seite zu einer anderen Seite innerhalb deiner Domain führen.
Hier erfährst du, warum interne Links wichtig sind:
- Sie sind ein wesentlicher Bestandteil einer guten Website-Architektur
- Sie verteilen Link-Equity (auch bekannt als "Link Juice" oder "Autorität") auf deine Seiten, damit Suchmaschinen wichtige Seiten identifizieren können.
Wenn du die Struktur deiner Website verbesserst und es sowohl für Suchmaschinen als auch für Nutzer einfacher machst, Inhalte zu finden, musst du den Zustand und den Status der internen Links der Website überprüfen.
Gehe zurück zum Site-Audit-Bericht und klicke auf " Detailsanzeigen " unter deiner "Interne Verlinkung"-Bewertung.
In diesem Bericht siehst du eine Aufschlüsselung der internen Linkprobleme der Website.
Tipp: Schau dir die Semrush-Studie über die häufigsten Fehler bei der internen Verlinkung an und wie du sie beheben kannst.
Ein typisches Problem, das relativ leicht zu beheben ist, ist eine fehlerhafte interne Verlinkung. Dies bezieht sich auf Links, die auf Seiten zeigen, die nicht mehr existieren.
Alles, was du tun musst, ist, auf die Anzahl der Probleme im Fehler "Defekte interne Links" zu klicken und die defekten Links, die du in der Liste siehst, manuell zu aktualisieren.
Eine weitere einfache Lösung sind verwaiste Seiten. Das sind Seiten, auf die keine Links verweisen. Das bedeutet, dass du nicht über eine andere Seite auf derselben Website auf sie zugreifen kannst.
Überprüfe das Balkendiagramm "Interne Links" und sieh nach, ob es Seiten mit null Links gibt.
Füge mindestens einen internen Link zu jeder dieser Seiten hinzu.
Zu guter Letzt kannst du das Diagramm "Interne Linkverteilung" nutzen, um die Verteilung deiner Seiten nach ihrem Internal LinkRank (ILR) zu sehen.
ILR zeigt, wie stark eine Seite in Bezug auf die interne Verlinkung ist. Je näher an 100, desto stärker ist eine Seite.
Nutze diese Metrik, um herauszufinden, welche Seiten von zusätzlichen internen Links profitieren könnten. Und welche Seiten du nutzen kannst, um mehr Link Equity über deine Domain zu verteilen.
Natürlich kann es sein, dass du Probleme behebst, die vermeidbar gewesen wären. Deshalb solltest du sicherstellen, dass du dich in Zukunft an die Best Practices für die interne Verlinkung hältst:
- Mach die interne Verlinkung zu einem Teil deiner Strategie zur Erstellung von Inhalten
- Jedes Mal, wenn du eine neue Seite erstellst, stelle sicher, dass du sie von bestehenden Seiten aus verlinken kannst
- Verlinke nicht auf URLs, die Weiterleitungen haben (verlinke stattdessen auf das Ziel der Weiterleitung)
- Verlinke auf relevante Seiten und gib relevante Ankertexte an
- Verwende interne Links, um Suchmaschinen zu zeigen, welche Seiten wichtig sind
- Verwende nicht zu viele interne Links (benutze hier deinen gesunden Menschenverstand - ein Standard-Blogpost braucht wahrscheinlich nicht 300 interne Links)
- Lerne über nofollow-Attribute und verwende sie richtig
Weitere Lektüre: Interne Links
4. Probleme mit doppelten Inhalten erkennen und beheben
Duplizierter Inhalt bedeutet, dass mehrere Webseiten identische oder fast identische Inhalte enthalten.
Das kann zu verschiedenen Problemen führen, unter anderem zu den folgenden:
- Eine falsche Version deiner Seite kann in den SERPs angezeigt werden
- Die Seiten können in den SERPs nicht gut abschneiden oder Probleme bei der Indexierung haben
Site Audit kennzeichnet Seiten als doppelte Inhalte, wenn ihr Inhalt zu mindestens 85 % identisch ist.
Für doppelte Inhalte gibt es zwei häufige Gründe:
- Es gibt mehrere Versionen von URLs
- Es gibt Seiten mit verschiedenen URL-Parametern
Schauen wir uns jedes dieser Themen genauer an.
Mehrere Versionen von URLs
Einer der häufigsten Gründe, warum eine Website doppelte Inhalte hat, ist, wenn du mehrere Versionen der URL hast. Eine Website kann zum Beispiel Folgendes haben:
- Eine HTTP-Version
- Eine HTTPS-Version
- Eine www-Version
- Eine nicht-wwww-Version
Für Google sind das verschiedene Versionen der Website. Wenn deine Seite also auf mehr als einer dieser URLs läuft, wird sie von Google als Duplikat betrachtet.
Um dieses Problem zu beheben, wähle eine bevorzugte Version deiner Website und richte eine standortweite 301-Weiterleitung ein. So wird sichergestellt, dass nur eine Version deiner Seiten zugänglich ist.
URL-Parameter
URL-Parameter sind zusätzliche Elemente einer URL, die zum Filtern oder Sortieren von Website-Inhalten verwendet werden. Sie werden häufig für Produktseiten mit sehr geringen Änderungen verwendet (z. B. verschiedene Farbvarianten desselben Produkts).
Du kannst sie daran erkennen, dass sie ein Fragezeichen und ein Gleichheitszeichen haben.
Da URLs mit Parametern fast denselben Inhalt haben wie ihre Gegenstücke ohne Parameter, können sie oft als Duplikate identifiziert werden.
Google gruppiert diese Seiten normalerweise und versucht, die beste Seite für die Suchergebnisse auszuwählen. Mit anderen Worten: Google wird sich wahrscheinlich um dieses Problem kümmern.
Dennoch empfiehlt Google ein paar Maßnahmen, um mögliche Probleme zu reduzieren:
- Unnötige Parameter reduzieren
- Kanonische Tags verwenden, die auf die URLs ohne Parameter verweisen
Du kannst das Crawlen von Seiten mit URL-Parametern vermeiden, wenn du dein SEO-Audit einrichtest. So stellst du sicher, dass das Site Audit Tool nur die Seiten crawlt, die du analysieren willst - und nicht deren Versionen mit Parametern.
Passe den Abschnitt "URL-Parameter entfernen" an, indem du alle Parameter auflistest, die du ignorieren möchtest:
Wenn du später auf diese Einstellungen zugreifen möchtest, klicke auf das Einstellungssymbol in der oberen rechten Ecke und dann auf " Crawl-Quellen: Website" unter den Site Audit-Einstellungen.
Weitere Lektüre: URL-Parameter
5. Überprüfe die Leistung deiner Website
Die Website-Geschwindigkeit ist ein wichtiger Aspekt des gesamten Seitenerlebnisses. Google schenkt dem eine große Aufmerksamkeit. Und es ist schon lange ein Google-Ranking-Faktor.
Wenn du eine Website auf ihre Geschwindigkeit überprüfst, solltest du zwei Punkte beachten:
- Seitengeschwindigkeit: Wie lange es dauert, bis eine Webseite geladen ist
- Seitengeschwindigkeit: Die durchschnittliche Seitengeschwindigkeit für eine Stichprobe von Seitenaufrufen auf einer Website
Wenn du die Seitengeschwindigkeit verbesserst, verbessert sich auch die Geschwindigkeit deiner Website.
Das ist eine so wichtige Aufgabe, dass Google ein Tool speziell dafür entwickelt hat: PageSpeed Insights.
Eine Handvoll Metriken beeinflusst die PageSpeed-Bewertungen. Die drei wichtigsten werden Core Web Vitals genannt.
Dazu gehörten:
- Largest Contentful Paint (LCP): misst, wie schnell der Hauptinhalt deiner Seite geladen wird
- First Input Delay (FID): misst, wie schnell deine Seite interaktiv ist
- Kumulative Layoutverschiebung (CLS): misst, wie visuell stabil deine Seite ist
Das Tool liefert Details und Möglichkeiten zur Verbesserung deiner Seite in vier Hauptbereichen:
- Und Performance der Website
- Barrierefreiheit8
- Best Practices
- SEO
PageSpeed Insights kann jedoch immer nur eine URL auf einmal analysieren. Um einen Überblick über die gesamte Website zu erhalten, kannst du entweder die Google Search Console oder ein Website-Audit-Tool wie Semrushs Site Audit verwenden.
Verwenden wir Site Audit für dieses Beispiel. Gehe zur Registerkarte "Probleme" und wähle die Kategorie " Website-Leistung".
Hier kannst du alle Seiten sehen, die von einem bestimmten Problem betroffen sind, wie z.B. langsame Ladezeiten.
Außerdem gibt es zwei detaillierte Berichte zur Leistung - den Bericht "Site Performance" und den Bericht "Core Web Vitals".
Du kannst auf beide von der Site Audit Übersicht aus zugreifen.
Der Bericht "Site Performance" bietet einen zusätzlichen "Site Performance Score" oder eine Aufschlüsselung deiner Seiten nach ihrer Ladegeschwindigkeit und andere nützliche Einblicke.
Der Core Web Vitals-Bericht schlüsselt deine Core Web Vitals-Kennzahlen anhand von 10 URLs auf. Mit dem Diagramm "Historische Daten" kannst du deine Leistung im Laufe der Zeit verfolgen.
Du kannst die Liste der analysierten Seiten auch so bearbeiten, dass der Bericht verschiedene Arten von Seiten auf deiner Website abdeckt (z. B. einen Blogbeitrag, eine Landing Page und eine Produktseite).
Klicke einfach auf " Listebearbeiten " im Abschnitt "Analysierte Seiten".
Weitere Informationen: Die Website-Performance ist ein breites Thema und einer der wichtigsten Aspekte der technischen SEO. Wenn du mehr über dieses Thema erfahren möchtest, schau dir unseren Leitfaden zur Seitengeschwindigkeit und unseren detaillierten Leitfaden zu Core Web Vitals an.
6. Probleme mit der Handyfreundlichkeit entdecken
Im Januar 2024 wird mehr als die Hälfte(58,21%) des Internetverkehrs über mobile Geräte abgewickelt.
Und Google indexiert in erster Linie die mobile Version aller Websites und nicht die Desktop-Version. (Dies ist als Mobile-First-Indexierung bekannt.)
Deshalb musst du sicherstellen, dass deine Website auf mobilen Geräten perfekt funktioniert.
Google Search Console bietet einen hilfreichen "Mobile Usability"-Bericht.
Hier kannst du deine Seiten in zwei einfache Kategorien einteilen: "Nicht nutzbar" und "Nutzbar".
Unten siehst du einen Abschnitt mit dem Titel "Warum Seiten auf dem Handy nicht nutzbar sind".
Sie listet alle erkannten Probleme auf.
Nachdem du auf ein bestimmtes Problem geklickt hast, siehst du alle betroffenen Seiten. Sowie Links zu Googles Richtlinien, wie man das Problem beheben kann.
Tipp: Willst du schnell die mobile Nutzbarkeit einer bestimmten URL überprüfen? Du kannst den Mobile-Friendly-Test von Google nutzen.
Mit Semrush kannst du zwei wichtige Aspekte der mobilen SEO überprüfen - den Viewport-Tag und AMP-Seiten.
Wähle einfach die Kategorie "Mobile SEO" auf der Registerkarte "Probleme" im Site Audit-Tool.
Ein Viewport-Meta-Tag ist ein HTML-Tag, mit dem du deine Seite auf verschiedene Bildschirmgrößen skalieren kannst. Sie passt die Seitengröße automatisch an das Gerät des Nutzers an (wenn du ein responsives Design hast).
Eine weitere Möglichkeit, die Leistung der Website auf mobilen Geräten zu verbessern, ist die Verwendung von Accelerated Mobile Pages (AMPs), das sind abgespeckte Versionen deiner Seiten.
AMPs werden auf mobilen Geräten schnell geladen, weil Google sie aus seinem Cache ausführt, anstatt Anfragen an deinen Server zu senden.
Wenn du AMP-Seiten verwendest, ist es wichtig, dass du sie regelmäßig überprüfst, um sicherzustellen, dass du sie richtig implementiert hast, um deine mobile Sichtbarkeit zu erhöhen.
Site Audit prüft deine AMP-Seiten auf verschiedene Probleme, die in drei Kategorien unterteilt sind:
- AMP HTML Probleme
- AMP-Stil und Layout-Probleme
- AMP-Templating-Probleme
Weitere Informationen: Beschleunigte mobile Seiten
7. Code-Probleme erkennen und beheben
Unabhängig davon, wie eine Webseite für menschliche Augen aussieht, sehen Suchmaschinen sie nur als einen Haufen Code.
Es ist also wichtig, die richtige Syntax zu verwenden. Und relevante Tags und Attribute, die den Suchmaschinen helfen, deine Seite zu verstehen.
Während deines technischen SEO-Audits solltest du verschiedene Teile deines Website-Codes und Markups im Auge behalten. Nämlich HTML (mit verschiedenen Tags und Attributen), JavaScript und strukturierte Daten.
Schauen wir uns einige von ihnen genauer an.
Meta-Tag-Probleme
Meta-Tags sind Textschnipsel, die den Suchmaschinen-Bots zusätzliche Daten über den Inhalt einer Seite liefern. Diese Tags befinden sich als HTML-Code in der Kopfzeile deiner Seite.
Wir haben uns bereits mit dem Robots-Meta-Tag (für die Crawl- und Indexierbarkeit) und dem Viewport-Meta-Tag (für die Mobilfreundlichkeit) beschäftigt.
Du solltest zwei weitere Arten von Meta-Tags kennen:
- Titel-Tag: Gibt den Titel einer Seite an. Suchmaschinen verwenden Titel-Tags, um den anklickbaren blauen Link in den Suchergebnissen zu bilden. Lies unseren Leitfaden für Titel-Tags, um mehr zu erfahren.
- Meta-Beschreibung: Eine kurze Beschreibung einer Seite. Suchmaschinen verwenden es, um das Snippet einer Seite in den Suchergebnissen zu bilden. Auch wenn sie nicht direkt mit dem Google-Ranking-Algorithmus zusammenhängt, hat eine gut optimierte Meta-Beschreibung andere potenzielle SEO-Vorteile.
Um Probleme im Zusammenhang mit diesen Meta-Tags in deinem Site Audit-Bericht zu sehen, wähle die Kategorie " Meta-Tags" auf der Registerkarte "Probleme".
Kanonische Tag-Probleme
Kanonische Tags werden verwendet, um auf die "kanonische" (oder "Haupt-") Kopie einer Seite hinzuweisen. Sie sagen den Suchmaschinen, welche Seite indiziert werden muss, wenn es mehrere Seiten mit doppeltem oder ähnlichem Inhalt gibt.
Ein kanonischer Tag wird im <head> Abschnitt des Codes einer Seite platziert und verweist auf die "kanonische" Version.
Das sieht so aus:
<link rel="canonical" href="https://www.domain.com/the-canonical-version-of-a-page/" />
Ein häufiges Problem bei der Kanonisierung ist, dass eine Seite entweder kein kanonisches Tag oder mehrere kanonische Tags hat. Und natürlich kann es sein, dass du ein kaputtes kanonisches Tag hast.
Das Site Audit Tool kann all diese Probleme aufdecken. Wenn du nur die Probleme mit der Kanonisierung sehen willst, gehst du zu "Probleme" und wählst im oberen Filter die Kategorie "Kanonisierung" aus.
Weitere Lektüre: Kanonische URLs
Hreflang-Attribut-Probleme
Das hreflang-Attribut gibt die Zielregion und die Sprache einer Seite an. Es hilft den Suchmaschinen, die richtige Variante einer Seite zu liefern, basierend auf dem Standort und den Sprachpräferenzen des Nutzers.
Wenn du mit deiner Website Zielgruppen in mehr als einem Land erreichen willst, musst du hreflang-Attribute in <link> Tags verwenden.
Das sieht dann so aus:
Um deine hreflang-Anmerkungen zu überprüfen, gehe zum thematischen Bericht "Internationale SEO" in Site Audit.
Sie gibt dir einen umfassenden Überblick über alle hreflang-Probleme auf deiner Website:
Am Ende des Berichts siehst du außerdem eine detaillierte Liste der Seiten mit fehlenden hreflang-Attributen und die Gesamtzahl der Sprachversionen deiner Website.
Weiter lesen: Hreflang ist eines der kompliziertesten SEO-Themen. Mehr über hreflang-Attribute erfährst du in unserem Einsteigerleitfaden zu hreflang oder in diesem Leitfaden zur Überprüfung von hreflang-Anmerkungen von Aleyda Solis.
JavaScript-Probleme
JavaScript ist eine Programmiersprache, mit der du interaktive Elemente auf einer Seite erstellen kannst.
Suchmaschinen wie Google verwenden JavaScript-Dateien, um die Seite darzustellen. Wenn Google die Dateien nicht rendern kann, wird die Seite nicht richtig indiziert.
Das Site Audit Tool erkennt fehlerhafte JavaScript-Dateien und markiert die betroffenen Seiten.
Um zu überprüfen, wie Google eine Seite, die JavaScript verwendet, wiedergibt, gehst du zur Google Search Console und verwendest das "URL Inspection Tool".
Gib deine URL in der oberen Suchleiste ein und drücke die Eingabetaste.
Sobald die Prüfung abgeschlossen ist, kannst du die Live-Version der Seite testen, indem du auf die Schaltfläche "Live-URL testen" in der oberen rechten Ecke klickst. Der Test kann ein oder zwei Minuten dauern.
Jetzt kannst du einen Screenshot der Seite genau so sehen, wie sie von Google dargestellt wird. So kannst du überprüfen, ob die Suchmaschine den Code richtig liest.
Klicke einfach auf den Link "Getestete Seite anzeigen" und dann auf den Reiter "Screenshot".
Überprüfe auf Unstimmigkeiten und fehlende Inhalte, um herauszufinden, ob etwas blockiert ist, einen Fehler hat oder eine Zeitüberschreitung vorliegt.
Unser JavaScript-SEO-Leitfaden kann dir helfen, JavaScript-spezifische Probleme zu diagnostizieren und zu beheben.
Fragen zu strukturierten Daten
Strukturierte Daten sind Daten, die in einem bestimmten Codeformat (Markup) organisiert sind und den Suchmaschinen zusätzliche Informationen über deinen Inhalt liefern.
Eine der beliebtesten gemeinsamen Sammlungen von Auszeichnungssprachen unter Webentwicklern ist Schema.org.
Die Verwendung von Schemata kann es den Suchmaschinen erleichtern, Seiten richtig zu indizieren und zu kategorisieren. Außerdem kann es dir helfen, SERP-Funktionen (auch bekannt als Rich Results) zu erfassen.
SERP-Features sind besondere Arten von Suchergebnissen, die sich durch ihre unterschiedlichen Formate vom Rest der Ergebnisse abheben. Beispiele sind die folgenden:
- Hervorgehobenes Snippet
- Erfahrungsberichte
- FAQs
Ein hervorragendes Tool, um zu prüfen, ob deine Seite für Rich Results geeignet ist, ist das Rich Results Test Tool von Google.
Gib einfach deine URL ein. Du siehst alle strukturierten Daten, die auf deiner Seite gefunden wurden.
Dieser Blogbeitrag verwendet zum Beispiel die strukturierten Daten "Artikel" und "Brotkrümel".
Das Tool listet alle Probleme neben bestimmten strukturierten Datenelementen auf, zusammen mit Links zu Googles Dokumentation, wie die Probleme behoben werden können.
Du kannst auch den thematischen Bericht "Markup" im Site Audit Tool verwenden, um Probleme mit strukturierten Daten zu erkennen.
Klicke einfach auf " Detailsanzeigen " im Feld "Markup" in deiner Auditübersicht.
Der Bericht gibt einen Überblick über alle strukturierten Datentypen, die deine Website verwendet. Und eine Liste mit allen ungültigen Artikeln.
Weitere Lektüre: Erfahre mehr über den Bericht "Markup" und wie du Schema-Markup für deine Seiten generierst.
8. HTTPS-Probleme prüfen und beheben
Deine Website sollte ein HTTPS-Protokoll verwenden (im Gegensatz zu HTTP, das nicht verschlüsselt ist).
Das bedeutet, dass deine Website auf einem sicheren Server läuft, der ein Sicherheitszertifikat, das sogenannte SSL-Zertifikat, von einem Drittanbieter verwendet.
Es bestätigt die Rechtmäßigkeit der Website und schafft Vertrauen bei den Nutzern, indem es ein Vorhängeschloss neben der URL im Webbrowser anzeigt:
Darüber hinaus ist HTTPS ein bestätigtes Google-Ranking-Signal.
Die Implementierung von HTTPS ist nicht schwierig. Aber es kann einige Probleme mit sich bringen. Hier erfährst du, wie du HTTPS-Probleme während deines technischen SEO-Audits angehst:
Öffne den Bericht "HTTPS" in der Site Audit Übersicht:
Hier findest du eine Liste aller Probleme im Zusammenhang mit HTTPS. Wenn deine Website ein Problem auslöst, siehst du die betroffenen URLs und bekommst Tipps, wie du das Problem beheben kannst.
Zu den häufigsten Problemen gehören die folgenden:
- Abgelaufenes Zertifikat: Zeigt dir an, ob dein Sicherheitszertifikat erneuert werden muss.
- Alte Sicherheitsprotokollversion: Informiert dich, ob deine Website ein altes SSL- oder TLS-Protokoll (Transport Layer Security) verwendet.
- Keine Angabe des Servernamens: Zeigt an, ob dein Server SNI (Server Name Indication) unterstützt, was es dir ermöglicht, mehrere Zertifikate unter derselben IP-Adresse zu hosten, um die Sicherheit zu erhöhen
- Gemischte Inhalte: Ermittelt, ob deine Website unsichere Inhalte enthält, die in Browsern eine "nicht sichere" Warnung auslösen können
9. Problematische Status Codes finden und beheben
HTTP-Statuscodes geben an, wie der Server einer Website auf die Anfrage des Browsers reagiert, eine Seite zu laden.
Der Status 1XX ist informativ. Und der Status 2XX meldet eine erfolgreiche Anfrage. Wir müssen uns keine Sorgen um sie machen.
Stattdessen schauen wir uns die anderen drei Kategorien an: Status 3XX, 4XX und 5XX. Und wie man mit ihnen umgeht.
Öffne zunächst die Registerkarte "Probleme" in Site Audit und wähle die Kategorie " HTTP-Status" im oberen Filter.
Hier werden alle Probleme und Warnungen im Zusammenhang mit dem HTTP-Status aufgelistet.
Klicke auf ein bestimmtes Thema, um die betroffenen Seiten zu sehen.
3XX Status Codes
3XX Statuscodes zeigen Weiterleitungen an - also Fälle, in denen Nutzer (und Suchmaschinen-Crawler) auf einer Seite landen, aber auf eine neue Seite weitergeleitet werden.
Seiten mit 3XX Statuscodes sind nicht immer problematisch. Du solltest aber immer darauf achten, dass sie richtig eingesetzt werden, um Probleme zu vermeiden.
Das Site Audit-Tool erkennt alle deine Weiterleitungen und markiert alle damit verbundenen Probleme.
Die beiden häufigsten Umleitungsprobleme sind folgende:
- Weiterleitungsketten: Wenn mehrere Weiterleitungen zwischen der ursprünglichen und der endgültigen URL existieren
- Umleitungsschleifen: Wenn die ursprüngliche URL auf eine zweite URL umleitet, die wiederum auf die ursprüngliche URL umleitet
Überprüfe deine Weiterleitungen und befolge die Anweisungen in Site Audit, um alle Fehler zu beheben.
Weitere Informationen: Umleitungen
4XX Status Codes
4XX-Fehler zeigen an, dass auf eine angeforderte Seite nicht zugegriffen werden kann. Der häufigste 4XX-Fehler ist der 404-Fehler: Seite nicht gefunden.
Wenn Site Audit Seiten mit einem 4XX-Status findet, musst du alle internen Links entfernen, die auf diese Seiten zeigen.
Zuerst öffnest du die jeweilige Ausgabe, indem du auf die entsprechende Seitenzahl klickst:
Du erhältst eine Liste mit allen betroffenen URLs:
Klicke in jeder Zeile auf "Defekte Links anzeigen", um die internen Links zu sehen, die auf die 4XX im Bericht aufgeführten Seiten verweisen.
Entferne die internen Links, die auf die 4XX Seiten zeigen. Oder ersetze die Links durch relevante Alternativen.
5XX Status Codes
5XX-Fehler liegen auf der Serverseite. Sie zeigen an, dass der Server die Anfrage nicht ausführen konnte, was viele Gründe haben kann. Einige gängige sind die folgenden:
- Der Server ist vorübergehend ausgefallen oder nicht verfügbar
- Falsche Serverkonfiguration
- Server-Überlastung
Du musst die Gründe für das Auftreten dieser Fehler untersuchen und sie nach Möglichkeit beheben.
10. Logdatei-Analyse durchführen
Die Logdatei deiner Website zeichnet Informationen über jeden Nutzer und Bot auf, der deine Website besucht.
Die Logdateianalyse hilft dir, deine Website aus der Sicht eines Webcrawlers zu betrachten, um zu verstehen, was passiert, wenn eine Suchmaschine deine Website crawlt.
Es wäre sehr unpraktisch, die Logdatei manuell zu analysieren. Wir empfehlen daher ein Tool wie den Log File Analyzer von Semrush.
Für deine Analyse brauchst du eine Kopie deiner Zugriffslogdatei. Du kannst sie über den Dateimanager deines Servers im Kontrollpanel oder über einen FTP-Client (File Transfer Protocol) aufrufen.
Dann lade die Datei in das Tool hoch und starte die Analyse. Das Tool analysiert die Googlebot-Aktivitäten auf deiner Website und erstellt einen Bericht. Es wird so aussehen:
Sie kann dir helfen, verschiedene Fragen zu deiner Website zu beantworten, darunter die folgenden:
- Verhindern Fehler, dass meine Website vollständig gecrawlt wird?
- Welche Seiten werden am meisten gecrawlt?
- Welche Seiten werden nicht gecrawlt?
- Beeinträchtigen strukturelle Probleme die Zugänglichkeit einiger Seiten?
- Wie effizient wird dein Crawl-Budget ausgegeben?
Die Beantwortung dieser Fragen kann dir helfen, deine SEO-Strategie zu verfeinern oder Probleme mit der Indizierung oder dem Crawling deiner Webseiten zu lösen.
Wenn der Log File Analyzer zum Beispiel Fehler identifiziert, die den Googlebot daran hindern, deine Website vollständig zu crawlen, kannst du oder ein Entwickler Schritte unternehmen, um die Fehler zu beheben.
Wenn du mehr über das Tool erfahren möchtest, lies unsere Anleitung zum Log File Analyzer.
Einpacken
Ein gründliches technisches SEO-Audit kann große Auswirkungen auf die Leistung deiner Website in den Suchmaschinen haben.
Alles, was du tun musst, ist loszulegen:
Nutze unser Site Audit Tool, um Probleme zu erkennen und zu beheben. Und beobachte, wie sich deine Leistung mit der Zeit verbessert.
Dieser Beitrag wurde im Jahr 2024 aktualisiert. Auszüge aus dem Originalartikel von A.J. Ghergich darf bleiben.