de
English Español Deutsch Français Italiano Português (Brasil) Русский 中文 日本語
Zum Blog
Colin Craig

Der Robots.txt-Leitfaden: Alles, was Sie wissen müssen

47
Wow-Score
Der Wow-Score zeigt, wie interessant ein Blog-Beitrag ist. Berechnet wird er anhand der Korrelation zwischen der aktiven Lesezeit von Benutzern, der Geschwindigkeit, mit der sie scrollen, und der Länge des Artikels.
Dieser Beitrag ist auf Deutsch
Colin Craig
Dieser Beitrag ist auf Deutsch
Der Robots.txt-Leitfaden: Alles, was Sie wissen müssen

Sie haben mehr Kontrolle über Suchmaschinen, als Ihnen bewusst ist. 

Sie können beispielsweise entscheiden, wer Ihre Webseite crawlen und indexieren darf - bis auf einzelne Unterseiten genau. Dabei hilft Ihnen die robots.txt-Datei. Sie ist eine simple Text-Datei, welche sich im Stammverzeichnis Ihrer Webseite befindet. Wenn Ihre Webseite nicht gecrawlt wird, dann kann ein Problem mit der Crawability der Webseite bestehen.

Sie kommuniziert den Crawl-Bots einer Suchmaschine, welche Webseiten gecrawlt und welche ausgelassen werden sollen. 

Auch wenn die Datei nicht allmächtig ist, ist sie dennoch ein leistungsstarkes Tool ist und erlaubt Ihnen, sich gegenüber Google so darzustellen, wie Sie es möchten. Suchmaschinen sind strenge Kritiker, weshalb es wichtig ist, einen bleibenden guten Eindruck zu hinterlassen. 

Die robots.txt-Datei kann, wenn sie richtig eingesetzt wird, die Crawl-Frequenz Ihrer Webseite erhöhen, was zu schnelleren Ergebnissen Ihrer SEO-Maßnahmen führen kann. 

Wie erstellen Sie also eine solche robots.txt-Datei? Wie wird sie eingesetzt? Was sollte vermieden werden? Antworten auf all diese Fragen finden Sie in diesem Beitrag!

Was ist Robots.txt?

Als das Internet noch in den Kinderschuhen steckte, aber sein großes Potenzial bereits erkennbar war, haben Entwickler eine Möglichkeit entwickelt, die neue Internetseiten crawlt und indexiert. Sie tauften diese kleinen Skripte “Bots” und “Spiders”. Dabei gelangten diese Bots auch häufig auf Webseiten, die nicht für das Crawling und die Indexierung gedacht waren, weil sie etwa nur Beispiel-Seiten sind oder gerade gewartet wurden. 

Der Schöpfer der ersten Suchmaschine der Welt, Aliweb, kreierte eine Art Fahrplan, welche jeder Crawling Bot folgen sollte. 

Dieser Fahrplan wurde im Jahr 1994 von einem Kollektiv von erfahrenen Web-Entwicklern als "Robots Exclusion Protocol" finalisiert. 

Eine robots.txt-Datei ist die Ausführung dieses Protokolls. Das Protokoll legt die Richtlinien fest, die jeder authentische Bot befolgen muss, einschließlich Google-Bots. Einige illegitime Bots, wie z. B. Malware, Spyware und dergleichen, arbeiten per Definition außerhalb dieser Regeln.

Sie können einen Blick hinter die Kulissen jeder Website werfen, indem Sie eine beliebige URL eingeben und /robots.txt am Ende hinzufügen.

Hier ist zum Beispiel die Version von POD Digital:

user-agent

Wie Sie sehen können, ist es nicht notwendig, eine eierlegende Wollmilchsau als Datei zu haben, da POD Digital eine relativ kleine Webseite ist. 

Wo findet man die Robots.txt?

Ihre robots.txt-Datei wird im Stammverzeichnis Ihrer Website gespeichert. Um sie zu finden, öffnen Sie Ihr FTP cPanel. Dort finden Sie die Datei im “public_html”-Verzeichnis Ihrer Webseite. 

ftp-file-manager

Die Dateien beinhalten keine komplexen Medien, sondern nur ein einfaches Textformat. Daher bestehen sie lediglich aus ein paar hundert Bytes, wenn überhaupt. 

Sobald Sie die Datei mit Ihrem Texteditor geöffnet haben, werden Sie mit einem Anblick wie diesem begrüßt: 

robots txt-notepad

Wenn Sie keine robots.txt-Datei finden können, weil sie etwa nicht existiert, sollten Sie selber eine erstellen. 

Wie erstellt man Robots.txt?

Im Grunde ist die robots.txt-Datei eine simple Textdatei. Die Erstellung fällt dementsprechend einfach aus. 

Alles, was Sie brauchen, ist ein einfacher Texteditor wie Notepad. Öffnen Sie ein Blatt und speichern Sie die leere Seite als "robots.txt".

Melden Sie sich nun in Ihrem cPanel an und suchen Sie den Ordner “public_html”, um auf das Stammverzeichnis der Webseite zuzugreifen. Sobald dieses geöffnet ist, ziehen Sie Ihre Datei hinein.

Schließlich müssen Sie sicherstellen, dass Sie die Zugriffsrechte für die Datei korrekt eingestellt haben.

Im Optimalfall sollten nur Sie als Eigentümer die Datei lesen, schreiben und bearbeiten dürfen. Anderen Nutzern sollte dies nicht gestattet sein. 

Daher sollte die Datei einen “0644”-Zugriffscode aufweisen.

change-file-attributes

Falls das noch nicht der Fall ist, sollten Sie dies ändern. Klicken Sie dafür auf die Datei und wählen Sie “Berechtigung”. 

Voila! Ihre robots.txt-Datei ist fertiggestellt!

Der robots.txt-Syntax 

Eine robots.txt-Datei besteht aus mehreren Befehls-Abschnitten in Code-Form, die jeweils mit einem bestimmten Benutzer-Agenten beginnen. Der Benutzer-Agent ist der Name des spezifischen Crawl-Bots, mit dem der Code interagiert. 

Dabei gibt es zwei Optionen: 

  1. Sie können einen Platzhalter verwenden, um alle Suchmaschinen gleichzeitig anzusprechen.

  2. Sie können bestimmte Suchmaschinen einzeln ansprechen.

Wenn ein Bot eingesetzt wird, um eine Webseite zu durchsuchen, wird er automatisch die Befehls-Abschnitte lesen, die ihn adressieren. 

Hier ist ein Beispiel: 

robots-txt-syntax

User-Agent Befehl

Die ersten Zeilen in jedem Block widmen sich dem User-Agenten, der dem jeweiligen Bot der Suchmaschine anspricht. Der User-Agent beinhaltet dabei den Namen des Bots: 

user-agent-directive

Wenn Sie also dem Google-Bot Befehle geben möchten, verwenden Sie: 

User-Agent: Googlebot

Suchmaschinen versuchen immer spezifische Befehle zu finden, die sich auf sie beziehen. 

Auch dann, wenn Sie beispielsweise zwei Befehle in der Datei haben: Einen für den Google Bot und einen für den Bing Bot. 

Der Bingbot, der auf den User-Agenten “Bingbot” trifft, wird diesen Befehl ausführen. Der Bot “Googlebot-Video” hingegen wird diesen Befehl überspringen und nach einer spezifischeren Anweisung suchen. 

Die meisten Suchmaschinen haben einige verschiedene Bots, hier ist eine Liste der gebräuchlichsten.

Host-Befehl

Derzeit wird der Host-Befehl lediglich von Yandex unterstützt, auch wenn Gerüchte dies von Google behaupten. Dieser Befehl erlaubt es einem Benutzer zu entscheiden, ob das www. vor einer URL mit diesem Block angezeigt werden soll: 

Host: poddigital.de

Da einzig und allen Yandex diesen Befehl mit Sicherheit unterstützt, ist es nicht ratsam, ihn anzuwenden. Stattdessen sollten Sie zur Weiterleitung einen 301-Redirect verwenden. 

Disallow-Befehl

Wir werden uns diesem Befehl später noch detaillierter widmen. 

Die zweite Zeile eines Blocks in der Datei enthält die Disallow-Befehle. Sie können mit ihnen festlegen, auf welche Bereiche der Webseite der Bot keinen Zutritt erhalten soll. Ein leerer Disallow-Block bedeutet, dass es keine Einschränkungen gibt. 

Sitemap-Befehle (XML Sitemaps)

Mit den Sitemap-Befehlen teilen Sie Suchmaschinen mit, wo Ihre XML-Sitemap zu finden ist.

Dennoch ist es wahrscheinlich am besten, wenn sie die Sitemap in die Webmaster Tools einer jeden Suchmaschinen einreichen. Sie enthalten viele wertvolle und wichtige Informationen über Ihre Webseite. 

Sollten Sie dazu keine Zeit haben, können Sie auf den Sitemap-Befehl zurückgreifen.

Crawl Delay-Befehl

Yahoo, Bing und Yandex neigen zu einem voreiligen Crawling, aber Sie können das Verhalten mit einem Crawl Delay-Befehl steuern. 

Indem Sie diese Zeile in Ihren Block einfügen:

Crawl-delay: 10

Kommunizieren Sie der Suchmaschine 10 Sekunden zu warten, bevor sie die Webseite crawlen oder 10 Sekunden warten, bevor die Seite nach dem Crawlen erneut besucht wird. Im Endeffekt läuft es auf dasselbe hinaus, doch die einzelnen Suchmaschinen agieren hierbei etwas unterschiedlich. 

Weshalb Sie die robots.txt-Datei verwenden sollten

Nun verfügen Sie über ein Grundlagenwissen über die robots.txt-Datei sowie einige Befehle und deren Anwendungen. Sie können Ihre eigene Datei erstellen. Der nächste Schritt hängt jedoch von der Art des Inhalts Ihrer Website ab.

Insgesamt ist die robots.txt-Datei für den Erfolg Ihrer Webseite nicht ausschlaggebend. Tatsächlich kann Ihre Webseite auch ohne diese Datei Erfolg haben und gute Rankings erreichen. 

Ihre Verwendung bringt jedoch einige Vorteile mit sich, die Sie kennen sollten, bevor Sie auf die Datei verzichten:

  • Sie können private Verzeichnisse vor Bots schützen: Indem Sie den entsprechenden Befehl in die Datei eingeben, machen Sie es Suchmaschinen schwerer, sensible Verzeichnisse zu indexieren. 

  • Sie kontrollieren Ihre Ressourcen: Jedes Mal, wenn ein Bot Ihre Webseite crawlt, werden Ihre Hosting-Ressourcen verwendet. Bei riesigen Webseiten mit viel Content, wie z.b. E-Commerce-Seiten, die tausende Unterseiten haben, kann ein Crawling Ihre Ressourcen schnell strapazieren. Mit der robots.txt-Datei können Sie bestimmte Unterseiten oder Elemente für Suchmaschinen schwer erreichbar machen und so Ihre wertvollen Ressourcen für den Besucher aufsparen. 

  • Sie kommunizieren den Standort Ihrer Sitemap: Dieser Punkt ist wichtig, denn die Crawling Bots sollten zu jedem Zeitpunkt wissen, wo sich Ihre Sitemap befindet, um diese schnell lesen zu können. 

  • Sie beugen Duplicate Content vor: Wenn Sie die Anweisung in die Datei einbringen, beugen Sie der Indexierung der Unterseiten mit doppelten Inhalten vor. 

Sie wollen natürlich, dass Suchmaschinen den bestmöglichen Zugang zu Ihren wichtigsten Unterseiten haben. Indem Sie bestimmte Seiten höflich absperren, können Sie kontrollieren, welche Seiten den Suchenden vorgelegt werden und welche nicht (Stellen Sie jedoch sicher, dass Sie Suchmaschinen niemals vollständig davon abhalten, bestimmte Unterseiten zu sehen). 

robots-txt-disallow

Werfen wir beispielsweise einen Blick auf die POD Digital Robots File, sehen wir, dass die folgende URL

  • poddigital.co.uk/wp-admin - mit einem Disallow-Befehl ausgestattet wurde.

Da diese Seite nur für uns erstellt wurde, damit wir uns in die Systemsteuerung einloggen können, ist es unsinnig den Bots zu erlauben, sie zu crawlen.

Robots.txt und Noindex

Im Juli 2019 hat Google angekündigt, den Noindex-Befehl sowie viele weitere inoffizielle Regel, auf die sich viele Webmaster verlassen haben, nicht mehr zu unterstützen. 

Deshalb haben viele von uns nach alternativen Methoden gesucht, mit denen sich dasselbe Ergebnis erzielen lässt. Unten sehen Sie einige dieser Optionen, mit denen Sie dieselbe Wirkung erreichen können. 

  • Noindex Tag / Noindex HTTP Response Header: Dieses Tag kann auf zwei Arten implementiert werden: Erstens als HTTP-Response Header mit einem X-Robots Tag oder durch die Erstellung eines <meta>-Tags, das innerhalb des <head>-Abschnitts.

Ihr <meta>-Tag sollte wie das folgende Beispiel aussehen:<meta name="robots" content="noindex">.

TIPP: Denken Sie daran, dass, wenn diese Seite durch die Datei robots.txt blockiert wurde, der Crawler niemals Ihr noindex-Tag sehen wird, und es immer noch eine Chance besteht, dass diese Seite in die SERPs aufgenommen wird.

  • Passwortschutz: Google gibt an, dass die meisten Unterseiten, die sich hinter einem Login verstecken, aus dem Google-Index entfernt werden. Die einzige Ausnahme stellt Abonnement- oder Paywall-Content dar, den Sie entsprechend mit Schema-Markup ausgezeichnet haben. 

  • 404 & 410 HTTP-Status-Code: 404 & 410 Statuscodes stehen für die Seiten, die nicht mehr existieren. Sobald eine Seite mit 404/410-Status gecrawlt und vollständig verarbeitet wurde, wird sie automatisch aus dem Google-Index entfernt. 

Sie sollten Ihre Seite regelmäßig crawlen, um das Bestehen eines 404- & 410-Fehlers auszuschließen. Bei vorhandenen Fehlercodes sollten Sie einen 301-Redirect einrichten, um den Traffic auf eine existente Unterseite zu schicken. 

  • Disallow-Befehl in der robots.txt: Indem Sie einen seitenspezifischen Disallow-Befehl in Ihre robots.txt-Datei einfügen, verhindern Sie ein Crawlen der Suchmaschine dieser Unterseite. In den meisten Fällen wird die Seite und Ihr Inhalt dadurch nicht indexiert. Sie sollten sich dennoch bewusst sein, dass die Suchmaschinen dennoch in der Lage sind, die Unterseite aufgrund durch Verlinkungen von anderen Seiten oder anderweitigen Informationen zu indexieren. 

  • Search Console URL Removal Tool: Diese Alternative löst das Indexierungsproblem nicht vollständig, da das Tool der Search-Konsole die URL nur für einige Zeit aus den SERPs entfernt.

Dies könnte Ihnen jedoch genügend Zeit geben, um weitere Crawler-Regeln und Tags vorzubereiten, damit die Seiten vollständig aus den SERPs entfernt werden könnten.

Sie finden das Remove URL Tool auf der linken Seite der Hauptnavigation in der Google Search Console.

google-search-console-navigation

Noindex vs. Disallow in Robots.txt

Viele von Ihnen fragen sich wahrscheinlich, ob es besser ist, das noindex-Tag oder die Disallow-Regel in Ihrer robots.txt-Datei zu verwenden. Wir haben bereits im vorigen Teil behandelt, warum die noindex-Regel in robots.txt und verschiedenen Alternativen nicht mehr unterstützt werden. 

Wenn Sie sicherstellen wollen, dass eine Ihrer Seiten nicht von Suchmaschinen indexiert wird, sollten Sie sich auf jeden Fall das noindex-Meta-Tag ansehen. Es ermöglicht den Bots den Zugriff auf die Seite, aber das Tag teilt mit, dass diese Seite nicht indexiert werden und nicht in den SERPs erscheinen soll.

Der Disallow-Befehl ist möglicherweise nicht so effektiv wie das noindex-Tag. Natürlich behindern Sie mit der Verwendung des Befehls in robots.txt die Bots daran, Ihre Seite zu crawlen, aber wenn die erwähnte Seite durch interne und externe Links mit anderen Seiten verbunden ist, könnten die Bots diese Seite dennoch auf der Grundlage von Informationen indexieren, die von anderen Seiten bereitgestellt werden. 

Sie sollten daran denken, dass, wenn Sie die Seite mit einer Disallow-Regel sperren und das noindex-Tag hinzufügen, die Roboter niemals Ihr noindex-Tag sehen werden, was wiederum das Erscheinen der Seite in den SERPs verursachen kann.

Regulären Ausdrücken und Platzhaltern REGEX in Robots.txt

Wir wissen also nun genau, was die robots.txt-Datei ist und wie sie verwendet werden sollte. Nun haben Sie vielleicht den Wunsch, bei einer großen E-Commerce-Seite, alle URLs vom Index auszuschließen, die ein Fragezeichen enthalten. 

Deshalb möchten wir Ihnen das Prinzip der Wildcards vorstellen, die sich in die robots.txt integrieren lassen. Aktuell gibt es zwei Varianten der Wildcards, die Sie verwenden können. 

  • * Platzhalter - hier kann das Zeichen * mit jedem beliebigen Sonderzeichen oder Zeichenfolge nach Ihren Wünschen ersetzt werden. Diese Art von Platzhaltern ist eine hervorragende Lösung für Ihre URLs, die einem ähnlichen Format entsprechen. Sie können beispielsweise das Crawlen aller Filterseiten unterbieten, die ein Fragezeichen (?) in der URL enthalten. 

wildcard-disallow

  • $ Platzhalter - Hierbei wird das Symbol $ mit dem Ende der auszuschließenden URL ersetzt. Möchten Sie etwa verhindern, dass alle PDF-Dateien indexiert werden, dann sollten Sie einen Befehl wie diesen untenstehenden implementieren: 

wildcards-$

Lassen Sie uns das obige Beispiel schnell aufschlüsseln. Ihre robots.txt erlaubt allen User Agent-Bots, Ihre Website zu durchsuchen, aber sie verbietet den Zugriff auf alle Seiten, die eine .pdf-Endung enthalten.

Fehler und Probleme in Robots.txt

Sie kennen nun bereits mehrere Verwendungsmöglichkeiten Ihrer robots.txt-Datei. Wir werden in diesem Abschnitt etwas tiefer auf jeden einzelnen Punkt eingehen und erklären, wie jeder einzelne zu einer SEO-Katastrophe werden kann, wenn er nicht richtig eingesetzt wird.

Blockieren Sie keine guten Inhalte

Ihre guten Inhalte sollten Sie der Öffentlichkeit präsentieren und unter keinen Umständen durch die robots.txt-Datei oder das Noindex-Tag blockieren. In der Vergangenheit sind uns mehrere dieser Fehler begegnet, die der Wirksamkeit der SEO-Kampagnen geschadet haben. Sie sollten Ihre Seiten gründlich auf vorhandene Noindex-Tags und Disallow-Befehle untersuchen. 

Übermäßige Nutzung des Crawl Delay

Wir haben bereits erklärt, wie der Crawl Delay-Befehl verwendet werden kann und was er bewirkt. Sie sollten ihn jedoch nicht zu häufig verwenden, da sie das SEO-Potenzial der betreffenden Seiten einschränken könnte. Für einige Webseiten mag es die perfekte Lösung sein. Aber gerade bei größeren Seiten könnte der Befehl nach hinten losgehen und Ihre Rankings und damit soliden Traffic behindern. 

Berücksichtigung der Groß- und Kleinschreibung

Die robots.txt-Datei unterscheidet zwischen Groß- und Kleinschreibung. Das sollte bei der Erstellung der Datei berücksichtigt werden. Benennen Sie die Datei daher “robots.txt” mit kleinen Buchstaben, damit sie funktioniert. 

Verwendung der Robots.txt zur Verhinderung der Indexierung von Content

Diesen Teil haben wir bereits oben angerissen. Eine Unterseite über die Datei zu sperren, ist die beste Methode, um das Crawling durch den Bot zu verhindern. 

 Das kann, muss aber nicht funktionieren: 

  • Wurde die Unterseite bereits von einer externen Quelle verlinkt, werden die Bots über diese Quelle auf die Unterseite gelangen, sie crawlen und dennoch indexieren. 

  • Illegitime Bots können die Unterseite immer crawlen und indexieren. 

Verwendung von Robots.txt zur Abschirmung privater Inhalte

semrush-login

Mancher Content, der nicht für die breite Öffentlichkeit bestimmt ist, wie PDFs oder Dankesseiten sind indexierbar, auch wenn Sie dem Bot daran hindern möchten. Eine effektive Methode, den Disallow-Befehl durchzusetzen, ist die Platzierung privater Inhalte hinter einem Login. 

Natürlich fällt dadurch ein weiterer Arbeitsschritt an, aber Ihre Inhalte sind geschützt. 

Mit der Robots.txt schädliche doppelte Inhalte vermeiden

Manchmal lässt sich Duplicate Content wie bei druckerfreundlichen Unterseiten nicht vermeiden und man kann diesen Content weder ausschließen, noch per 301-Weiterleitung aus der Welt schaffen. 

Dennoch sind Google und andere Suchmaschinen fortgeschritten genug, um zu erkennen, wenn Sie etwas verstecken möchten. Tatsächlich ziehen Sie so nur größere Aufmerksamkeit auf sich und Ihren Duplicate Content. Google erkennt mittlerweile den Unterschied zwischen natürlichem Duplicate Content, wie druckerfreundlichen Unterseiten, und dem Versuch, dem Algorithmus etwas vorzumachen. 

duplicate-content

Es besteht die Chance, das er sowieso entdeckt wird. 

Mit diesen drei Methoden sollten Sie diese Art von Content handhaben: 

  1. Schreiben Sie den Content um: Die Erstellung spannender und nützlicher Inhalte wird die Suchmaschine dazu veranlassen, Ihre Webseite als vertrauenswürdig zu betrachten, was langfristig zu besseren Rankings führen kann. Gerade bei einer Copy-und-Paste-Aufgabe sollten Sie sich diesen Ratschlag zu Herzen nehmen. 

  2. Richten Sie einen 301-Redirect ein: 301-Redirects informieren Suchmaschinen darüber, dass eine Unterseite an einen anderen Ort transferiert wurde. Fügen Sie einen 301 auf eine Seite mit doppeltem Inhalt ein und leiten Sie die Besucher auf die Originalseite des Contents. 

  3. Rel= “canonical: Dieses Cannonical Tag informiert Google über den ursprünglichen Ort von duplizierten Inhalten. Das ist besonders für eine E-Commerce-Webseite relevant, da hierbei das CMS sehr häufig identische Inhalte unter zwei Versionen ausspielt. 

Robots.txt Generator

Wenn auch die Erstellung der Robots.txt lieber von Hand angegangen werden sollte, existieren viele Generatoren, die die Datei für Sie erstellen. Aber Achtung! Verlassen Sie sich niemals auf den generierten Code. Die Gefahr ist groß, dass dies sonst die Crawlability und die Rankings der Webseite negativ beeinflußt.

Hier ein paar Links zu den einfachen Generatoren:

  • https://extendsclass.com/robots-txt-generator.html
  • Chrome-Addon: https://chrome.google.com/webstore/detail/robotstxt-generator/oefjnjjbkdbjdngfojgiceogjplckejc
  • https://linkgraph.io/generate-robots-text/

Robots.txt testen

Nun ist es an der Zeit Ihre Datei zu testen, um herauszufinden, ob alles nach Ihren Vorstellungen funktioniert. 

Die Webmaster Tools von Google verfügen über eine Testfunktion für die robots.txt, aber momentan ist diese nur in der alten Version der Google Suchkonsole verfügbar (Google erweitert momentan die Funktionen der Suchkonsole, sodass wir vielleicht in der Zukunft eine Testfunktion für die Robots.txt in der aktuellen Version finden werden). 

Zunächst werden Sie die Google Support Seite besuchen müssen, wo Sie einen Überblick über die Funktionen der Robots.txt-Testfunktion erhalten werden. Sie finden dort auch das Test-Tool: 

robots-txt-tester

Wählen Sie zunächst das Property an dem Sie arbeiten - zum Beispiel, Ihre Unternehmenswebseite aus der Dropdown-Liste. 

Entfernen Sie alles, was sich momentan in der Box befindet, ersetzen Sie es mit Ihrer neuen robots.txt-Datei und klicken Sie auf “Test”.

robots-txt-test

Wenn der Button "Test" auf "Zugelassen" umschaltet, funktioniert Ihre robots.txt-Datei vollständig. 
Die korrekte Erstellung dieser Datei erlaubt Ihnen, Ihre SEO und Ihre User-Erfahrung zu verbessern. 

Indem Sie den Bots kommunizieren, wie Sie Ihre Webseite richtig zu crawlen haben, sind sie in der Lage ihren Content strukturiert und in der von Ihnen gewünschten Form darzustellen.

SEMrush 7 Tage kostenlos testen

Verbessern Sie Ihre Online-Sichtbarkeit

Bitte geben Sie eine korrekte Domain ein.

Colin Craig
Pro

Stellt hervorragende Fragen und gibt brillante Antworten.

My company: POD Digital is a specialist Ecommerce SEO Company.
We work with big companies up and down the country to improve the performance of their website, increasing traffic, rankings and driving revenue.
Feedback senden
Ihr Feedback muss mindesten drei Wörter (10 Zeichen) enthalten.

Wir verwenden diese E-Mail-Adresse ausschließlich, um auf Ihr Feedback zu antworten. Datenschutzbestimmungen

Vielen Dank für Ihr Feedback!