SEMrush erklärt Methodik der Ranking-Faktoren-Studie 2017

46
Wow-Score
Der Wow-Score zeigt, wie interessant ein Blog-Beitrag ist. Berechnet wird er anhand der Korrelation zwischen der aktiven Lesezeit von Benutzern, der Geschwindigkeit, mit der sie scrollen, und der Länge des Artikels.
Mehr erfahren

SEMrush erklärt Methodik der Ranking-Faktoren-Studie 2017

Xenia Volynchuk
SEMrush erklärt Methodik der Ranking-Faktoren-Studie 2017

In der zweiten Fassung der SEMrush Ranking-Faktoren-Studie 2017 haben wir fünf weitere Backlink-Faktoren hinzugefügt und die relative Stärke ihres Einflusses auf das Ranking einer bestimmten URL im Vergleich zu einer ganzen Domain ermittelt.

Traditionsgemäß wollen wir Ihnen einen tieferen Einblick in unsere Methodik bieten. Als im Juni die erste Fassung der Studie erschien, reagierten viele mit Zweifeln - und in der Tat wird gemeinhin angenommen, dass direkte Webseiten-Aufrufe das Ergebnis hoher Positionen im Suchergebnis sind und nicht umgekehrt.

Und doch erwiesen sich Seitenbesuche in beiden Analysen als wichtigster Faktor im Google-Ranking. Dabei war die von uns eingesetzte Methode einzigartig im Bereich der SEO-Studien - anstelle einer Korrelationsanalyse setzten wir den Maschinenlernen-Algorithmus Random Forest ein. Da die Studie letztendlich darauf zielte, SEO-Praktikern eine bessere Priorisierung ihrer Aufgaben und ein effizienteres Arbeiten zu ermöglichen, wollen wir Ihnen einen Blick hinter die Kulissen gewähren, einige Details der Vorgehensweise erläutern und so ein paar populäre Missverständnisse ausräumen, so dass Sie sich ruhigen Herzens auf unsere Ergebnisse verlassen können.

backlink-ranking-factors-infographic.png

Doch Spaß beiseite, dieser Artikel ist für echte Nerds. Zunächst also ein kleines Glossar:

Entscheidungsbaum — eine baumartige Struktur, die einen Algorithmus für maschinelles Lernen abbildet, welche überlicherweise mit Klassifikations-Aufgaben betraut ist. Er unterteilt zu Trainingszwecken eine Datenstichprobe auf Basis der signifikantesten Attribute in homogene Gruppen bzw. Unterkategorien.

Überwachtes Lernen — eine Art von Algorithmus für maschinelles Lernen, der ein Modell darauf trainiert, Muster in der Beziehung zwischen Input-Variablen (Eigenschaften, A) und Output-Variable (Zielwert, B) zu finden: B = f(A). Das Ziel des überwachten Lernens besteht darin, das Modell an einer Datenstichprobe so zu trainieren, dass der Algorithmus bei Daten, die nicht zur Stichprobe gehören, auf Basis der Input-Eigenschaften exakt den Zielwert vorhersagen kann. Der Trainings-Datensatz repräsentiert den Lehrer, der den Lernvorgang beaufsichtigt. Das Training gilt als erfolgreich abgeschlossen, wenn der Algorithmus mit zufriedenstellender Qualität arbeitet.

Eigenschaft (oder Attribut, oder Input-Variable) — ein Charakteristikum einer separaten Dateneingabe, die analysiert wird. Im Rahmen der Studie und dieses Artikels sind diese Eigenschaften die vermuteten Ranking-Faktoren.

Binäre Klassifikation — eine Art von Klassifikations-Aufgabe, die in die Kategorie des überwachten Lernens fällt. Das Ziel der Aufgabe besteht darin, einen Zielwert (= Klasse) für jeden Dateneintrag vorherzusagen, und in der binären Klassifikation kann dieser Wert nur entweder 1 oder 0 betragen.

Der Random-Forest-Algorithmus in der Ranking-Faktoren-Studie

Der Random-Forest-Algorithmus wurde Mitte der 1990er Jahre von Leo Breiman und Adele Cutler entwickelt. Er hat seither keine großen Veränderungen durchlaufen, was ein Beweis seiner hohen Qualität und universellen Einsatzfähigkeit ist: Er wird für Klassifikation, Regression, Clustering, Eigenschafts-Selektion und andere Aufgaben verwendet.

Wir haben uns aus guten Gründen für den Random-Forest-Algorithmus entschieden, obwohl er in der Öffentlichkeit wenig bekannt ist:

  • Er gehört zu den beliebtesten Algorithmen für maschinelles Lernen und bietet unübertroffene Genauigkeit. Seine erste und wichtigste Anwendung ist das Ranking der Wichtigkeit von Variablen (und ist ideal für solche Aufgaben - dazu später), also ist er eine naheliegende Wahl.

  • Der Algorithmus verarbeitet Daten in einer bestimmten Weise, die Fehler minimiert:

    1. Die Random-Subspace-Methode überträgt jedem Lerner zufällig ausgewählte Stichproben von Eigenschaften, aber keinem alle. Dies garantiert, dass der Lerner sich nicht zu stark auf ein vordefiniertes Set von Eigenschaften konzentriert oder voreingenommene Entscheidungen über Datensätze trifft, die nicht aus der Stichprobe stammen.

    2. Die Aggregation mittels Bagging oder Bootstrap verbessert zusätzlich die Präzision. Die wesentliche Idee dabei ist, dem Lerner keinen vollständigen Datensatz, sondern zufällig ausgewählte Stichproben zu liefern.

Da wir es nicht mit einem einzelnen Entscheidungsbaum zu tun haben, sondern mit einem ganzen Wald aus Hunderten von Bäumen, können wir sicher sein, dass jede Eigenschaft und jedes Paar von Domains ungefähr in derselben Häufigkeit analysiert wird. Dadurch arbeitet die Random-Forest-Methode stabil und mit einem Minimum an Fehlern.

Die Pairwise-Methode: Pre-Processing Input Data

Wir haben uns entschieden, für unsere Studie einen Satz von 600.000 Keywords aus der weltweiten Datenbank (USA, Spanien, Frankreich, Italien, Deutschland und andere), die URL-Positionen der Top-20-Suchergebnisse und eine Liste vermuteter Ranking-Faktoren als Datenbasis zu verwenden. Da wir keine Korrelationsanalyse durchführen wollten, mussten wir eine binäre Klassifikation vornehmen, bevor wir den Algorithmus für maschinelles Lernen zum Einsatz brachten. Diese Aufgabe haben wir mit der Pairwise-Methode gelöst - eine der beliebtesten maschinen-gelernten Ranking-Methoden, die unter anderem von Microsoft in Forschungsprojekten genutzt wird.

Die Pairwise-Methode bedeutet, dass jede Suchergebnisseite individuell ausgewertet wurde, statt den gesamten Datensatz zu untersuchen - wir vergleichen alle möglichen Paare von URLs (das erste Suchergebnis auf der Seite mit dem fünften, das elfte mit dem zweiten etc.) im Hinblick auf jede Eigenschaft. Jedes Paar erhält ein Set absoluter Werte, wobei jeder Wert ein Quotient ist, der durch das Teilen des Eigenschaftswertes für die erste URL durch den Eigenschaftswert der zweiten URL entsteht. Darüber hinaus erhält jedes Paar einen Zielwert, der anzeigt, ob die erste URL im Suchergebnis höher platziert ist als die zweite (Zielwert = 1) oder niedriger (Zielwert =0).

Das Ergebnis dieses Vorgehens:

  1. Jedes URL-Paar erhält einen Satz von Quotienten für jede Eigenschaft und einen Zielwert von 1 oder 0. Diese Spannbreite von Zahlen dient als Trainings-Datensatz für die Entscheidungsbäume.

  2. Wir können nun statistische Beobachtungen anstellen, dass bestimmte Eigenschaftswerte und ihre Kombinationen tendenziell zu einer höheren Suchergebnis-Position für die URL führen. Dies erlaubt es uns, eine Hypothese über die Wichtigkeit bestimmter Eigenschaften zu formulieren und eine Vorhersage darüber zu treffen, ob ein bestimmtes Set von Werten zu einem höheren Ranking führt.

Das Ensemble der Entscheidungsbäume erstellen: Überwachtes Lernen

Der Datensatz, den wir nach dem vorangegangenen Schritt erhalten haben, ist universell und kann für jeden Maschinenlernen-Algorithmus genutzt werden. Unser Favorit war Random Forest, ein Ensemble von Entscheidungsbäumen.

Bevor die Bäume eine sinnvolle Entscheidung treffen können, müssen sie trainiert werden - und genau hier findet das überwachte Lernen statt. Um ein korrektes Training und neutrale Entscheidungen über den Hauptdatensatz sicherzustellen, haben wir die Methoden Bagging und Random Subspace eingesetzt.

forest-gif.gif

Beim Bagging wird ein Trainingsdatensatz erstellt, indem Stichproben mit Zurücklegen gezogen werden. Sagen wir, wir haben X Datenzeilen. Nach den Prinzipien des Bagging erstellen wir einen Trainingsdatensatz für jeden Entscheidungsbaum, der dieselbe Anzahl von X Zeilen enthält. Allerdings werden diese Stichprobensätze nach Zufallsprinzip mit Zurücklegen zusammengestellt, so dass sie nur zu etwa zwei Dritteln die originalen X Zeilen und dafür einige Duplikate enthalten. Rund ein Drittel der Originalwerte bleibt unberührt und kommt zum Einsatz, wenn das Lernen abgeschlossen ist. Ähnlich sind wir bei den Eigenschaften anhand der Random-Subspace-Methode vorgegangen - die Entscheidungsbäume wurden mit Zufallsstichproben der Eigenschaften anstatt mit der Gesamtliste der Eigenschaften trainiert.

 Keiner der Bäume nutzt also den gesamten Datensatz und die gesamte Liste der Eigenschaften. Doch indem wir einen Wald mit zahlreichen Bäumen verwenden, können wir davon ausgehen, dass jeder Wert und jede Eigenschaft in ungefähr derselben Häufigkeit beim Lernen verwendet wurde.

 Den Wald wachsen lassen

 Jeder Entscheidungsbaum unterteilt repetitiv den Trainingsdatensatz anhand der wichtigsten Variable so lange, bis jede Teilgruppe aus homogenen Dateneinträgen besteht. Der Baum scannt den gesamten Trainingsdatensatz und wählt die wichtigste Eigenschaft mit ihrem genauen Wert, welcher als Dreh- und Angelpunkt (Knoten) fungiert und die Daten in zwei Gruppen teilt. Für die eine Gruppe trifft die oben ausgewählte Bedingung zu, für die andere ist sie falsch (Zweige JA und NEIN). Alle Untergruppen (Knotenblätter) erhalten einen durchschnittlichen Zielwert auf Basis der Zielwerte der URL-Paare, die einer bestimmte Untergruppe zugeordnet wurden.

Da die Bäume den Stichproben-Datensatz zum Wachsen verwenden, lernen sie dabei. Ihr Lernen gilt als erfolgreich und von hoher Qualität, wenn das Ziel eines bestimmten Prozentanteils korrekt geschätzter Zielwerte erreicht wird.

Wenn das gesamte Ensemble der Bäume gewachsen und trainiert ist, beginnt der Zauber: Die Bäume dürfen nun Daten verarbeiten, die nicht zur Stichprobe gehörten (etwa ein Drittel des ursprünglichen Datensatzes). Ein Baum bekommt ein bestimmtes URL-Paar nur dann zur Auswertung, wenn er diesem Paar im Training noch nicht begegnet ist. Das heißt, jedes URL-Paar wird nur einem Teil der Bäume im Wald präsentiert. Jetzt beginnt das Voting: Für jedes URL-Paar gibt ein Baum sein Urteil ab, schätzt also die Wahrscheinlichkeit, dass die eine URL eine höhere Position in den Suchergebnissen einnehmen wird als die andere. Dieselbe Aktion wird von allen anderen Bäumen durchgeführt, welche die Voraussetzung erfüllen, dem URL-Paar vorher noch nicht begegnet zu sein. So erhält jedes URL-Paar einen Satz von Wahrscheinlichkeitswerten. Daraus werden anschließend Durchschnittswerte gebildet. Dies genügt als Datenbasis für den nächsten Schritt.

Mit Random Forest die Wichtigkeit von Attributen einschätzen

Random Forest erbringt extrem verlässliche Ergebnisse, wenn es um die Einschätzung der Wichtigkeit von Attributen geht. Die Bewertung wird wie folgt durchgeführt:

  1. Die Attributswerte werden über alle URL-Paare vermischt und die aktualisierten Sets von Werten werden dem Algorithmus dargeboten.

  2. Jegliche Veränderung in der Qualität oder Stabilität des Algorithmus wird erfasst (d.h. ob der Prozentanteil der korrekt eingeschätzten Zielwerte gleich bleibt oder nicht).

  3. Auf Basis der so erzeugten Werte können Schlussfolgerungen gezogen werden:

  • Wenn die Qualität des Algorithmus signifikant sinkt, ist das Attribut wichtig. Je stärker der Qualitätsabfall ist, desto wichtiger ist das Attribut.

  • Wenn die Qualität des Algorithmus gleich bleibt, ist das Attribut weniger wichtig.

Dieses Verfahren wird für alle Attribute wiederholt. Das Ergebnis ist ein Rating der wichtigsten Ranking-Faktoren.

Warum wir glauben, dass Korrelationsanalysen schlecht für die Untersuchung von Ranking-Faktoren sind

Wir haben uns bewusst gegen die übliche Praxis entschieden, Ranking-Faktoren durch Korrelationsanalysen zu ermitteln. Trotzdem erhielten wir zahlreiche Kommentare wie “Korrelation ist nicht Kausalität” oder “Das sieht nicht nach Ranking-Faktoren aus, eher nach Korrelationen”. Daher verdient dieser Punkt einen eigenen Abschnitt.

Zuerst möchten wir noch einmal betonen, dass der ursprüngliche Datensatz dieser Studie stark schwankende Werte beinhaltet. Schließlich haben wir nicht eine, sondern 600.000 Suchergebnisseiten ausgewertet. Jedes Suchergebnis besitzt seinen eigenen durchschnittlichen Attributswert, und diese Einzigartigkeit fällt bei Korrelationsanalysen völlig unter den Tisch. Wir glauben, dass jede Suchergebnisseite separat betrachtet und ihre Einzigartigkeit berücksichtigt werden sollte.

Eine Korrelationsanalyse ergibt nur dann verlässliche Ergebnisse, wenn es darum geht, die Beziehung zwischen zwei Variablen zu untersuchen (zum Beispiel den Einfluss der Anzahl an Backlinks auf eine Position im Suchergebnis). “Beeinflusst dieser Faktor die Position?” - diese Frage kann recht exakt beantwortet werden, denn es wird nur eine beeinflussende Variable untersucht. Aber können wir jeden Faktor in Isolation analysieren? Wahrscheinlich nicht, denn wie wir wissen, gibt es eine ganze Reihe von Faktoren, die sich auf die Position einer URL im Suchergebnis auswirken.

Ein weiteres Qualitätskriterium für eine Korrelationsanalyse ist die Variationsbreite der erhaltenen Korrelationsverhältnisse. Wenn wir zum Beispiel eine Aufstellung von Korrelationsverhältnissen wie -1, 0.3 und 0.8 vor uns haben, kann man sagen, dass es einen Parameter gibt, der wichtiger ist als andere. Je näher der absolute Wert oder Betrag des Korrelationsverhältnisses bei 1 liegt, desto stärker die Korrelation. Liegt der Wert unter 0.3, kann die Korrelation ignoriert werden - die Abhängigkeit zwischen den zwei Variablen ist in diesem Fall zu schwach, um belastbare Schlussfolgerungen zu ziehen. Für alle von uns analysierten Faktoren war das Korrelationsverhältnis kleiner als 0.3, weshalb wir die Methode verwarfen.

Ein weiterer Grund, keine Korrelationsanalyse zu verwenden, war die hohe Anfälligkeit von Korrelationen für Ausreißerwerte und Rauschen, und die Daten diverser Keywords wiesen darauf hin, dass diese zahlreich vorhanden waren. Wenn ein zusätzlicher Eintrag zum Datensatz hinzugefügt wird, ändert sich sofort das Korrelationsverhältnis. Daher kann dieser Kennwert in Analysen mit vielen Variablen - wie einer Ranking-Faktoren-Studie - nicht belastbar sein und zu falschen Schlussfolgerungen führen.

Abschließend sei noch gesagt, dass es kaum vorstellbar ist, dass einer oder gar zwei Korrelationsverhältnisse so nahe an der 1 liegen - wenn das stimmte, wäre es leicht, Googles Algorithmus zu hacken, und wir könnten alle auf Platz 1 sein!

FAQ - Häufig gestellte Fragen

Wir haben oben bereits versucht, die meisten der häufig gestellten Fragen zu beantworten. Hier sind dennoch einige weitere für unsere besonders neugierigen Leser.

Warum haben wir keine künstlichen neuronalen Netzwerke (KNN) verwendet?

Obwohl künstliche neuronale Netzwerke für Aufgaben mit einer hohen Zahl von Variablen perfekt sind, zum Beispiel für die Bilderkennung (wo jedes Pixel eine Variable ist), erzeugen sie Ergebnisse, die schwer zu interpretieren sind und keinen Vergleich des Gewichts der einzelnen Faktoren erlauben. Zudem benötigen KNN sehr große Datensätze und eine riesige Anzahl von Eigenschaften, um belastbare Ergebnisse zu erzeugen. Die von uns erhobenen Input-Daten erfüllten diese Anforderungen nicht.

Anders als Random Forest, wo jeder Entscheidungsbaum sein unabhängiges Urteil fällt und somit ein hohes Maß an Zuverlässigkeit garantiert ist, werten neuronale Netzwerke einen einzigen großen Datentopf aus. Es gibt keinen Grund anzunehmen, dass die Verwendung von KNN im Rahmen unserer Studie genauere Ergebnisse gebracht hätte.

Unsere wichtigsten Anforderungen an die Auswertungsmethode waren Stabilität und die Möglichkeit, das relative Gewicht der einzelnen Faktoren zu bestimmen. Vor diesem Hintergrund war Random Forest der ideale Kandidat. Dies ist zusätzlich durch die vielen vergleichbaren Ranking-Aufgaben bewiesen, die mit diesem Algorithmus bereits gelöst wurden.

Warum sind Webseitenbesuche der wichtigste Google-Ranking-Faktor?

Dies war wahrscheinlich das umstrittenste Ergebnis unserer Studie. Als wir die Ergebnisse sahen, waren auch wir überrascht. Obwohl unser Algorithmus an einer soliden Datenmenge trainiert worden war, entschieden wir uns, die Fakten noch einmal zu prüfen. Wir haben dazu die Daten zu organischen und bezahlten Suchergebnissen ausgeschlossen, ebenso wie den Referrer- und Social-Traffic, und nur die Direktaufrufe berücksichtigt. Die Ergebnisse blieben im Wesentlichen dieselben. Die Verteilung der Positionen blieb unverändert (die Diagramme auf den Seiten 25-26 veranschaulichen dies).

Für uns ergibt dieser Befund durchaus Sinn und bestätigt die Bevorzugung von Domains mit höherer Autorität durch Google, wie in den Search Quality Evaluator Guidelines ausgeführt. Die Guidelines räumen mit dem Mythos auf, Domain-Autorität sei nur eine lahme Ausrede und ein kaum greifbares, vages Konzept. Bereits im Jahr 2015 hat Google dieses Handbuch eingeführt, um bei der Einschätzung der Webseitenqualität zu helfen und “abzubilden, was Nutzer nach der Auffassung von Google wollen”.

Das Handbuch benennt den Dreiklang E-A-T, was für Expertise, Authoritativeness (Autorität), und Trustworthiness (Vertrauenswürdigkeit) steht, als wichtigen Indikator der Qualität einer Website. Qualität und Umfang der Inhalte, Informationen über die Website (z.B. wer dafür verantwortlich zeichnet) und Reputation beeinflussen den E-A-T einer Website. Stellen Sie es sich so vor: Wenn eine URL in den Top 10 auftaucht, dann enthält sie grundsätzlich Inhalte, die für die jeweilige Suchanfrage eines Nutzers relevant sind.

Doch um die Plätze unter den zehn führenden Sites aufzuteilen, zählt Google zusätzliche Parameter. Wir wir wissen, setzt das Unternehmen hinter den Kulissen ein ganzes Team für die Suchergebnis-Qualitätssicherung ein, das dafür verantwortlich ist, den Suchalgorithmus von Google zu verbessern und die Relevanz der Suchergebnisse zu erhöhen. Wie in den Google Quality Evaluator Guidelines beschrieben, sollen die Qualitätssicherer Seiten mit hoher Qualität priorisieren und den Algorithmen beibringen, das gleiche zu tun. Der Ranking-Algorithmus ist also darauf trainiert, Webseiten eine höhere Position zuzuweisen, die zu vertrauenswürdigen Domains mit hoher Autorität gehören. Wir glauben, dies könnte der Grund dafür sein, dass unsere Daten dem direkten Traffic eine so große Bedeutung als Ranking-Signal zuschreiben. Um mehr zu erfahren, lesen Sie unseren Blogartikel EAT and YMYL: New Google Search Guidelines Acronyms of Quality Content.

ranking-factors-study-methodology.png

Ebenfalls zu beachten: Vor Kurzem hat Gary Illyes von Google auf der SMX-East-Konferenz bestätigt, dass “sich die öffentliche Wahrnehmung Ihrer Site auf Ihr Geschäft auswirkt”. Obwohl sich dies Illyes zufolge nicht zwingend auf Google-Rankings bezieht, scheint es in jedem Fall wichtig, in die Loyalität der Internetnutzer zu investieren: Nutzer glücklich = Google glücklich.

bildschirmfoto-2017-11-15-um-160320.png

Was bedeutet das für Sie? Nun, Markenbekanntheit und -reputation (unter anderem bemessen an Direktzugriffen) wirken sich stark auf Ihre Rankings aus und verdienen genauso viel Mühe und Investitionen wie SEO.

Unterschiede in der Wirkung von Ranking-Faktoren bei Marken- und Nicht-Marken-Keywords

Wie Ihnen vielleicht aufgefallen ist, geht jeder Graph in unserer Studie auf der zweiten Position steil nach oben. Wir haben versprochen, uns diese Trendabweichung genauer anzusehen, und deshalb unserer Studie eine weitere Dimension hinzugefügt. Die zweite, aktualisierte Fassung beschäftigt sich mit der Wirkung der drei wichtigsten Faktoren (Direktzugriffe, Verweildauer und Anzahl verweisender Domains) auf die Rankings einer bestimmten URL anstelle der gesamten Domain, der die URL zugehört.

Man würde annehmen, dass die Webseiten auf Platz 1 die am besten optimierten sind, und doch sahen wir, dass jede Trendlinie an der ersten Stelle abfiel.

Wir verknüpften also diese Abweichung mit den Suchanfragen, die aus einem Marken-Keyword bestanden oder eines enthielten. Die Hypothese war, dass eine Domain wahrscheinlich für jede Suchanfrage, die ihre Marke als Keyword enthält, den ersten Platz im Suchergebnis belegen wird. Sie erhält diesen unabhängig von ihrem Optimierungsgrad, so dass die Platzierung nichts mit SEO-Maßnahmen zu tun hat. Dies erklärt, warum Ranking-Faktoren die zweite Position auf einer Suchergebnisseite stärker betreffen als die erste.

Um dies zu beweisen, haben wir uns die Daten noch einmal aus einem neuen Blickwinkel angeschaut und ermittelt, wie sich die Ranking-Faktoren auf einzelne URLs auswirken, die im Suchergebnis auftauchen. Für jeden Faktor haben wir zusätzliche Graphen erstellt, auf denen die Verteilung von URLs und Domains über die ersten zehn Suchergebnisse dargestellt ist (siehe Seiten 34-35). Obwohl die Studie nur Graphen für die drei einflussreichsten Faktoren enthält, ist dieselbe Tendenz auch bei anderen Faktoren zu beobachten.

Was bedeutet das für Sie als Marketer? Wenn eine Domain für ein Marken-Keyword in der Google-Suche platziert ist, verlieren viele Faktoren ihren Einfluss. Bei der Optimierung für Nicht-Marken-Keywords gilt es jedoch im Gedächtnis zu behalten, dass die analysierten Ranking-Faktoren einen größeren Einfluss auf die Positionen der einzelnen URL als auf die Domain haben, auf der sie sich befinden. Das bedeutet, dass die Rankings einer bestimmten Seite (URL) stärker auf Onpage-Optimierung, Linkaufbau und andere Optimierungstechniken reagieren.

Fazit: Die SEMrush Ranking-Faktoren-Studie in der Praxis

Es gibt keine Garantie dafür, dass Sie höhere Rankings erzielen werden, wenn Sie die Kenndaten Ihrer Website für einen der oben genannten Faktoren verbessern. Wir haben eine gründliche Studie durchgeführt, die es uns erlaubt, belastbare Schlussfolgerungen über die Bedeutung der 17 Faktoren für das Ranking im Google-Suchergebnis zu ziehen. Dennoch handelt es sich hier nur um geschicktes Reverse-Engineering, nicht um einen Allzweck-Optimierungsplan - und das gilt für jede Studie über Ranking-Faktoren. Niemand außer Google kennt alle Geheimnisse. Dennoch empfehlen wir Ihnen folgenden Arbeitsablauf für Ihre eigene Recherche:

  • Schritt 1. Verschaffen Sie sich ein klares Bild davon, für welche Keywords Sie gefunden werden - gehören diese zur Gruppe mit niedrigem, mittlerem oder hohem Suchvolumen?

  • Schritt 2. Führen Sie ein Benchmark mit Ihren Konkurrenten durch: Sehen Sie sich genauer an, welche Methoden diese einsetzen, um die Top 10 zu erreichen, und studieren Sie ihre Kennwerte — verfügen sie über viele Backlinks? Sind ihre Domains mit HTTPS gesichert?

  • Schritt 3. Verwenden Sie die Studie, um Optimierungstechniken auszuwählen und umzusetzen, die unter Berücksichtigung der Wettbewerbsdichte auf den Suchergebnisseiten den größten Erfolg für Ihre Keywords versprechen.

Unsere Empfehlung lautet also, einen näheren Blick auf unsere Studie zu werfen, sich das E-A-T-Konzept durch den Kopf gehen zu lassen und eine gute, faktenbasierte Strategie zu entwickeln!

Welche Faktoren sollten wir in der nächsten Ausgabe der Studie analysieren? Lassen Sie uns in den Kommentaren Ihre Meinung wissen!

Gefällt Ihnen dieser Beitrag? Folgen Sie unserem RSS-Feed und lesen Sie weitere interessante Beiträge:

RSS
Online Marketing Specialist at SEMrush.
Diesen Beitrag teilen
oder

Dein Kommentar

Noch 2000 Zeichen