Wir haben die Query-Fan-Out-Optimierung getestet (Hier sind unsere Erkenntnisse)

Autor:Zach Paruch
9 Min. Lesedauer
Mai 13, 2025
Beitragende: Tushar Pol und Christine Skopec

Wir haben diesen Artikel aus dem Englischen ins Deutsche übertragen. Klicke hier, um den Originalartikel zu lesen. Wenn dir am Inhalt Probleme auffallen, schicke uns gerne eine Nachricht an report-osteam@semrush.com.

Seit Google den KI-Modus eingeführt hat, beschäftigen mich zwei Fragen:

  • Wie stellen wir sicher, dass unsere Inhalte in den KI-Ergebnissen angezeigt werden?
  • Wie finden wir heraus, was funktioniert, wenn die KI-Suche noch weitgehend ein Rätsel ist?

Obwohl es online viele Ratschläge gibt, sind viele davon bestenfalls spekulativ. Jeder hat Hypothesen zur KI-Optimierung, aber nur wenige führen tatsächliche Experimente durch, um zu sehen, was funktioniert.

Eine Idee ist die Optimierung für Abfrage-Fan-Out. Bei der Query-Fan-Out-Methode handelt es sich um einen Prozess, bei dem KI-Systeme (insbesondere Google AI Mode und ChatGPT Search) Ihre ursprüngliche Suchanfrage in mehrere Teilabfragen aufteilen und anschließend Informationen aus verschiedenen Quellen sammeln, um eine umfassende Antwort zu erstellen.

Diese Abbildung veranschaulicht perfekt den Aufteilungsprozess der Anfrage.

Illustration des Anfrageverzweigungsprozesses

Die Optimierungsstrategie ist einfach: Identifizieren Sie die Unterabfragen zu einem bestimmten Thema und stellen Sie dann sicher, dass Ihre Seite Inhalte enthält, die auf diese Abfragen abzielen. Wenn Sie das tun, haben Sie bessere Chancen, bei den KI-Antworten ausgewählt zu werden (zumindest theoretisch).

Deshalb habe ich beschlossen, einen kleinen Test durchzuführen, um zu sehen, ob das tatsächlich funktioniert. Ich habe vier Artikel aus unserem Blog ausgewählt, sie von einem Teammitglied aktualisieren lassen, um relevante Folgeanfragen zu beantworten, und unsere KI-Sichtbarkeit einen Monat lang verfolgt.

Die Ergebnisse? Nun, sie liefern einige interessante Erkenntnisse über KI-Optimierung.

Hier die wichtigsten Erkenntnisse aus unserem Experiment:

Wichtigste Erkenntnisse

  • Die Optimierung für Fan-Out-Anfragen erhöht die KI-Zitate deutlich: In unserer kleinen Stichprobe von vier Artikeln haben wir die Zitate in verfolgten Anfragen von zwei auf fünf mehr als verdoppelt. Auch wenn die absoluten Zahlen angesichts der Stichprobengröße gering sind, waren die Zitationen die wichtigste Kennzahl, die wir beeinflussen wollten, und der Anstieg deutet grundsätzlich auf einen Erfolg hin.
  • KI-Zitate können unvorhersehbar sein: Ich habe im Laufe des Monats regelmäßig nachgesehen, und einmal erreichten unsere Zitate einen Höchststand von neun, bevor sie wieder auf fünf zurückfielen. Es liegen Berichte darüber vor, dass ChatGPT die Zitationen für Marken und Verlage generell drastisch reduziert hat. Das zeigt einfach, wie schnell sich die Dinge ändern können, wenn man sich zur Transparenz auf KI-Plattformen verlässt.
  • Unsere Markenerwähnungen gingen bei den verfolgten Suchanfragen zurück, und das Gleiche gilt für alle anderen: Insgesamt, stellten wir fest, dass weniger Markenreferenzen in den KI-Antworten auf die von uns überwachten Suchanfragen auftauchten. Dies wirkte sich auf unseren Marktanteil, unsere Markenbekanntheit und unsere Gesamterwähnungsmetriken aus. Auch andere Marken verzeichneten ähnliche Einbrüche. Dies scheint ein anderes Problem zu sein als die Änderungen bei Zitationen – es geht vielmehr darum, wie KI-Plattformen während unseres Versuchszeitraums mit Markenerwähnungen umgegangen sind.

Die Ergebnisse dieses Experiments werden wir später im Artikel ausführlich besprechen. Zunächst möchte ich Ihnen genau erklären, wie wir dieses Experiment durchgeführt haben, damit Sie unsere Methodik verstehen und unseren Ansatz gegebenenfalls replizieren oder verbessern können.

Wie wir das Query-Fan-Out-Experiment durchgeführt haben

So haben wir unser Experiment aufgebaut und durchgeführt:

  • Ich habe vier Artikel aus unserem Blog ausgewählt.
  • Für jeden ausgewählten Artikel recherchierte ich 10 bis 20 weiterführende Suchanfragen.
  • Ich habe mich mit Tushar Pol, einem Senior Content Writer aus unserem Team, zusammengetan, um die Inhaltsänderungen für dieses Experiment umzusetzen. Er hat den Inhalt unserer Artikel so bearbeitet, dass möglichst viele weiterführende Fragen beantwortet werden.
  • Ich habe ein Tracking für die Fan-Out-Abfragen eingerichtet, damit wir die Sichtbarkeit vor und nach der KI messen können. Ich habe hierfür die Semrush Enterprise AIO Plattform verwendet. Wir waren vor allem daran interessiert zu sehen, wie sich unsere Inhaltsänderungen auf die Sichtbarkeit im KI-Modus von Google auswirken, aber unsere Optimierungen könnten als Nebeneffekt auch die Sichtbarkeit auf anderen Plattformen wie der ChatGPT-Suche verbessern, deshalb habe ich auch dort die Leistung verfolgt.

Schauen wir uns jeden dieser Schritte genauer an.

1. Artikel auswählen

Ich hatte bei der Auswahl der Artikel für dieses Experiment bestimmte Kriterien im Sinn.

Zunächst einmal wollte ich Artikel, die in den letzten paar Monaten eine stabile Performance aufwiesen. Der Datenverkehr war in letzter Zeit unbeständig, und Tests auf instabilen Seiten würden es unmöglich machen, festzustellen, ob etwaige Leistungsänderungen auf unsere Modifikationen oder nur auf normale Schwankungen zurückzuführen sind.

Zweitens habe ich Artikel vermieden, die für unser Geschäft von zentraler Bedeutung waren. Es handelte sich schließlich um ein Experiment. Falls etwas schiefgehen sollte, wollte ich unsere Sichtbarkeit bei wichtigen Themen nicht negativ beeinflussen.

Nach Durchsicht unserer Inhaltsbibliothek habe ich vier perfekte Kandidaten gefunden:

  1. Eine Anleitung zur Erstellung eines Marketingkalenders
  2. Eine Erklärung, was Subdomains sind und wie sie funktionieren
  3. Ein umfassender Leitfaden zu Google-Keyword-Rankings
  4. Eine detaillierte Anleitung zur Durchführung technischer SEO-Audits

2. Recherche von Fan-Out-Anfragen

Anschließend recherchierte ich Fan-Out-Anfragen für jeden Artikel.

Derzeit gibt es keine Möglichkeit vorherzusagen, welche Folgefragen (verwandte Fragen und Anschlussanfragen) Google bei der Interaktion mit dem KI-Modus verwendet, da diese dynamisch generiert werden und sich von Suche zu Suche unterscheiden können.

Daher musste ich auf synthetische Abfragen zurückgreifen. Hierbei handelt es sich um KI-generierte Suchanfragen, die annähernd dem entsprechen, was Google generieren könnte, wenn Nutzer im KI-Modus suchen.

Ich habe mich entschieden, zwei Tools zur Generierung dieser Abfragen zu verwenden.

Zuerst habe ich Screaming Frogverwendet. Mit diesem Tool konnte ich ein benutzerdefiniertes Skript für jeden Artikel ausführen. Das Skript analysiert den Seiteninhalt, identifiziert das Hauptkeyword, auf das es abzielt, und führt dann eine eigene Version des Query Fan-Out durch, um verwandte Suchanfragen vorzuschlagen.

Screaming Frog-Dashboard mit hervorgehobener Spalte „Query Fan-Out“.

Leider sind die Daten in Screaming Frog nicht richtig sichtbar – alles wurde in eine einzige Zelle gequetscht. Deshalb musste ich den gesamten Zelleninhalt in ein separates Google Sheet kopieren und einfügen.

Die auf Screaming Frog generierten Query-Fan-Out-Daten wurden in ein Google Sheet eingefügt.

Jetzt konnte ich die Daten tatsächlich sehen.

Das Gute daran ist, dass das Skript auch prüft, ob unsere Inhalte diese Anfragen bereits beantworten. Falls einige Fragen bereits beantwortet wurden, könnten wir sie überspringen. Wenn es aber neue Anfragen gab, mussten wir neue Inhalte dafür hinzufügen.

Als nächstes verwendete ich Qforia, ein kostenloses Tool, das von Mike King und seinem Team bei iPullRank entwickelt wurde.

Der Grund, warum ich ein anderes Tool verwendet habe, ist einfach: Unterschiedliche Tools führen oft zu unterschiedlichen Suchanfragen. Durch eine breitere Streuung der Suchanfragen hätte ich eine umfassendere Liste potenzieller Fan-Out-Anfragen.

Wenn bestimmte Anfragen in beiden Tools häufig gestellt werden, ist das ein Hinweis darauf, dass es wichtig sein könnte, diese zu beantworten.

Die Funktionsweise von Qforia ist unkompliziert: Geben Sie das Hauptkeyword des Artikels in das dafür vorgesehene Feld ein, fügen Sie einen Gemini-API-Schlüssel hinzu, wählen Sie den Suchmodus (entweder Google AI-Modus oder AI-Übersicht) und starten Sie die Analyse. Das Tool generiert für Sie passende Abfragen.

Qforia-Dashboard mit eingegebener Suchanfrage, ausgewähltem Suchmodus und Klick auf „Run Fan-Out“, wodurch eine Liste verwandter Suchanfragen generiert wird.

Nachdem ich die Analyse für jeden Artikel durchgeführt hatte, speicherte ich die Ergebnisse in demselben Google Sheet. 

3. Aktualisierung der Artikel 

Nachdem wir eine Tabelle voller Fan-Out-Anfragen hatten, war es an der Zeit, unsere Artikel tatsächlich zu aktualisieren. Hier kam Tushar ins Spiel.

Meine Anweisungen waren einfach:

Überprüfen Sie die Fan-Out-Abfragen für jeden Artikel und gehen Sie auf diejenigen ein, die noch nicht behandelt wurden. und konnten hinzugefügt werden. Wenn Ihnen einige Fragen so vorkamen, als lägen sie außerhalb des Rahmens des Artikels, war es in Ordnung, sie zu überspringen und fortzufahren.

Ich habe Tushar außerdem gesagt, dass es nicht immer notwendig sei, die Anfragen wörtlich wiederzugeben. Solange wir die in der Anfrage gestellte Frage beantworteten, spielte der genaue Wortlaut keine so große Rolle. Ziel war es, sicherzustellen, dass unsere Inhalte das enthielten, wonach die Leser tatsächlich suchten.

Manchmal bedeutete die Beantwortung einer Anfrage lediglich kleine Anpassungen – beispielsweise das Hinzufügen eines oder zweier Sätze zum bestehenden Inhalt. In anderen Fällen war es notwendig, völlig neue Abschnitte zu erstellen.

Eine der Suchanfragen, die häufig zu unserem Artikel über die Durchführung eines technischen SEO-Audits gestellt wurden, lautete beispielsweise: „Unterschied zwischen einem technischen SEO-Audit und einem Onpage-SEO-Audit“. 

Wir hätten diese Frage auf viele Arten beantworten können, aber eine kluge Option war, direkt nach der Definition eines technischen SEO-Audits einen Vergleich anzustellen.

Ein Blogbeitrag auf Semrush mit einem Absatz, in dem eine Fan-Out-Anfrage behandelt werden könnte, wurde hervorgehoben.

Manchmal war es nicht einfach (oder gar möglich), Abfragen auf natürliche Weise in den bestehenden Inhalt zu integrieren. In diesen Fällen haben wir reagiert, indem wir einen neuen FAQ-Bereich erstellt und darin mehrere weiterführende Fragen beantwortet haben.

Hier ein Beispiel:

FAQ-Bereich in einem Blogbeitrag, der mehrere Fragen zum Thema Fan-Out beantwortet.

Innerhalb einer Woche haben wir alle vier Artikel unserer Liste aktualisiert. Diese Artikel durchliefen nicht unseren üblichen redaktionellen Prüfprozess. Wir haben schnell gehandelt. Das war aber Absicht, da es sich um ein Experiment und nicht um ein reguläres Inhaltsupdate handelte.

4. Einrichtung der Sendungsverfolgung

Bevor wir die Aktualisierungen veröffentlichten, habe ich die aktuelle Performance jedes Artikels aufgezeichnet, um eine Vergleichsbasis zu schaffen. Auf diese Weise könnten wir feststellen, ob die Optimierung der Query-Fan-Out-Methode unsere KI-Sichtbarkeit tatsächlich verbessert hat.

Ich habe unsere Enterprise AIO Plattform verwendet, um die Ergebnisse zu verfolgen. Ich habe ein neues Projekt im Tool erstellt und alle Abfragen eingefügt, die wir anvisierten. Anschließend begann das Tool, unsere aktuelle Sichtbarkeit im Google AI Mode und ChatGPT zu messen.

Das Enterprise AIO-Dashboard zeigt eine Liste von Eingabeaufforderungen an, wobei „Projekt veröffentlichen“ angeklickt wurde.

So sah die Performance zu Beginn dieses Experiments aus:

  • Zitate: Dies misst, wie oft unsere Seiten in KI-Antworten zitiert wurden. Anfangs wurden nur zwei unserer vier Artikel mindestens einmal zitiert.
  • Gesamtzahl der Erwähnungen: Diese Kennzahl zeigt das Verhältnis der Anfragen an, bei denen unsere Marke direkt in der KI-Antwort erwähnt wurde. Das Verhältnis betrug 18/33 – das heißt, von 33 erfassten Suchanfragen wurden wir in 18 Fällen erwähnt.
  • Share of voice: Dies ist eine gewichtete Metrik, die sowohl die Markenposition als auch die Erwähnungshäufigkeit in den verfolgten KI-Abfragen berücksichtigt. Unser Ergebnis lag bei 23,4 %, was bedeutet, dass wir bei einigen Antworten vertreten waren, aber nicht bei allen oder in führenden Positionen.
  • Markenpräsenz: Hier wurde uns mitgeteilt, in welchem Prozentsatz der Schnellantworten unsere Marke mindestens einmal erwähnt wurde, unabhängig von der Position.
Basis-Leistungskennzahlen für ein Query-Fan-Out-Experiment: Zitate, Gesamterwähnungen, Marktanteil, Markenbekanntheit.

Ich beschloss, einen Monat zu warten, bevor ich wieder Metriken protokolliere. Dann war es an der Zeit, unser Experiment zu beenden.

Die Ergebnisse: Was wir über die Optimierung des Query-Fan-Outs gelernt haben.

Die Ergebnisse waren ehrlich gesagt durchwachsen.

Zunächst einmal eine gute Nachricht: Die Gesamtzahl unserer Zitierungen ist gestiegen.

Unsere vier Artikel wurden statt zwei Mal fünf Mal zitiert – eine Steigerung um 150 %. Eine der Änderungen, die wir am technischen SEO-Artikel vorgenommen haben (den wir bereits gezeigt haben), wurde beispielsweise als Quelle in der KI-Antwort verwendet.

Das Dashboard des Enterprise AIO-Tools zeigt die Positionen der KI und die Details der Prompt & -Antwort an.

Dass unsere Inhalte zitiert werden, ist genau das, was wir uns erhofft hatten – ein voller Erfolg. (Trotz der geringen Stichprobengröße.)

Interessanterweise wären unsere Endergebnisse möglicherweise noch beeindruckender gewesen, wenn wir unser Experiment früher beendet hätten. Zeitweise erreichten wir neun Zitate, doch dann gingen sie zurück, als ChatGPT die Zitate für alle Marken deutlich reduzierte. 

Das zeigt nur, wie unberechenbar KI-Plattformen sein können und dass Faktoren, die völlig außerhalb Ihrer Kontrolle liegen, Ihre Sichtbarkeit beeinträchtigen können.

Aber was ist mit den anderen Kennzahlen, die wir erfasst haben?

Unser Anteil an der öffentlichen Kommunikation ging von 23,4 % auf 20,0 % zurück, die Markenbekanntheit sank von 13,6 % auf 10,6 % und die Anzahl der Markenerwähnungen ging von 18 auf 10 zurück.

Unseren Daten zufolge sind wir nicht die Einzigen, die einen Rückgang der Markenkennzahlen verzeichnen mussten. Hier ist eine Grafik, die zeigt, wie viele Marken gleichzeitig an Präsenz verloren haben.

Sinkender Marktanteil auf KI-Plattformen für zahlreiche Marken wie Ahrefs, Semrush, HubSpot usw.

Dies geschah, weil KI-Plattformen bei der Beantwortung unserer erfassten Suchanfragen insgesamt weniger Markennamen erwähnten. Dies war ein völlig anderes Problem als die zuvor erwähnten Zitationsschwankungen.

Unter Berücksichtigung der externen Faktoren bin ich der Ansicht, dass unsere Optimierungsbemühungen besser abgeschnitten haben, als die Daten zeigen. Trotz widriger Umstände ist es uns gelungen, unsere Zitationen zu steigern.

Die Frage lautet nun also:

Funktioniert die Query-Fan-Out-Optimierung?

Aufgrund der Erkenntnisse aus unserem Experiment würde ich sagen: Ja – aber mit einem großen Vorbehalt. 

Die Optimierung des Query-Fan-Outs kann Ihnen helfen, mehr Zitate zu erhalten, was wertvoll ist. Doch in solch volatilen Zeiten ist es schwierig, ein planbares Wachstum zu erzielen. Berücksichtigen Sie dies bei der Optimierung für KI.

Wenn Sie mehr über KI-SEO erfahren möchten, behalten Sie die neuen Inhalte im Auge, die wir regelmäßig in unserem Blog veröffentlichen. Hier sind einige Artikel, die Sie sich als Nächstes ansehen sollten:

Teilen
Author Photo

Zach Paruch is a data-driven SEO strategist with 10+ years of experience driving organic growth through smart, scalable search strategies. His expertise includes on-page and technical SEO, AI search optimization, and content strategy—with a special focus on ideating and implementing AI-driven processes. By leveraging in-depth search intent analysis, refined information architecture, and user-centered design, Zach consistently delivers high-impact content that drives business outcomes.

Author Photo
Zach Paruch
Zach Paruch is a data-driven SEO strategist with 10+ years of experience driving organic growth through scalable search strategies. He specializes in on-page and technical SEO, content strategy, AI search optimization, and AI-driven processes.
Teilen