Wissen
Semrush-Toolkits
SEO
Site Audit
Warum werden mir funktionierende Seiten als defekt angezeigt?

Warum werden mir funktionierende Seiten als defekt angezeigt?

Es kann von Zeit zu Zeit vorkommen, dass das Site Audit einige deiner internen Seiten als defekt meldet, obwohl diese vollständig funktionieren. Das kommt nicht oft vor, aber es führt zu Verwirrungen einiger Benutzer.

Grundsätzlich liegt es an einem falsch-positiven Ergebnis. Die drei häufigsten Gründe für ein falsch-positives Ergebnis sind:

  • Unser Crawler könnte für einige Seiten in der Datei robots.txt oder durch noindex-Tags blockiert worden sein 

    Warum werden mir funktionierende Seiten als defekt angezeigt? image 2
  • Hosting-Anbieter blockieren möglicherweise unsere Bots, da sie glauben, dass es sich um einen DDoS-Angriff handelt (massive Anzahl von Treffern in kurzer Zeit)
  • Zum Zeitpunkt des erneuten Crawls der Kampagne konnte die DNS der Domain nicht aufgelöst werden

Wenn du glaubst, es liegt ein Fehler beim Crawlen vor, dann erfährst du in diesem umfassenden Artikel, wie du die Probleme mit robots.txt beheben kannst. 

Du kannst auch die Geschwindigkeit beim Crawlen verlangsamen, um eine große Anzahl von Zugriffen auf deinen Seiten zur gleichen Zeit zu verhindern. Darin liegt der Grund dafür, dass unser Bot die Seiten als defekt meldete, obwohl sie einwandfrei funktionierten. Das nennt man ein falsch-positives Ergebnis.

Site Audit crawler settings

Häufig gestellte Fragen Mehr anzeigen
Anleitung Mehr anzeigen
Workflows Mehr anzeigen