← All Articles

LLM-Traffic-Monitoring: Die drei Signale (Training, Zitate, Empfehlungen)

Die drei Signale des LLM-Traffics: Training-Crawls, Konversations-Zitate und echte Nutzer-Empfehlungen, mit Content-Coverage als vorgelagertem Tor

Was LLM-Traffic eigentlich ist

LLM-Traffic wird oft als eine einzelne Zahl diskutiert, und diese Sichtweise lasst viel auf der Strecke. Auf Ihrer eigenen Website zeigt sich KI-Aktivitat tatsachlich als drei unterschiedliche Signale, die Sie direkt messen konnen, jedes erzeugt durch eine andere Art von KI-Verhalten und jedes auf andere Arbeit hinweisend. Ein viertes Signal, Share of Voice, wird off-site gemessen. Es ist eine weniger zuverlassige Leistungsdimension, aber es ist der Ansatz, den die meisten Teams derzeit fur die Off-Site-Sicht verwenden. Wahrend sich Teams auf das Wachstum des KI-Kanals konzentrieren, glauben wir, dass sich Marken an diesem Drei-Signal-Modell zur Leistungsmessung orientieren sollten.

3 Signale
Training-Crawls, Konversations-Zitate und echte Nutzer-Empfehlungen, jedes fur sich messbar
WISLR AI Channel Analytics
Signal 1 · Trainingszeit
LLM-Training
OpenAI, Anthropic, Google und Common Crawl rufen Ihre Seiten ab, um das Modelltraining zu fittern. Kein Live-Nutzer. Das Modell lernt, was es uber Ihre Marke und Inhalte wissen soll.
Signal 2 · Live-Konversation
Konversations-Zitate
ChatGPT, Claude und Perplexity rufen Ihre Seite mitten im Gesprach ab, um eine Frage zu beantworten, die jemand gerade jetzt stellt. Jeder Abruf ist ein Live-Moment der Absicht.
Signal 3 · Hohe Absicht
Echte Nutzer
Jemand klickt auf ein Zitat von ChatGPT, Claude, Perplexity oder Copilot und landet auf Ihrer Website. Sie kamen nach der Recherche der Frage, also konvertieren sie zu hoheren Raten als andere Kanale.

Jedes Signal ist es wert, separat verfolgt zu werden, geordnet danach, wo der Nutzer ist, wenn jedes geschieht: Trainingszeit, bevor irgendein Nutzer beteiligt ist, eine Live-Konversation, in der ein Nutzer gerade jetzt eine Frage stellt, und ein Klick, bei dem ein Nutzer auf Ihrer Website ist. Dieses Drei-Signal-Modell erfasst, wie KI tatsachlich mit einer Website interagiert, was Verlage und E-Commerce-Betreiber brauchen, um Entscheidungen treffen zu konnen. Wir haben AI Channel Analytics um dasselbe Modell aufgebaut.

Sobald Sie in drei Signalen statt einer Zahl denken, werden die Fragen, die Teams am haufigsten stellen, wie man LLM-Traffic uberwacht, was auf das Dashboard gehort und welche Zahlen am nutzlichsten sind, viel einfacher zu beantworten.


Warum GA4 und andere clientseitige Analytics-Tools damit Schwierigkeiten haben

Bevor wir auf die Signale eingehen, ein kurzes Wort daruber, was bestehende Analytics-Tools zeigen konnen und was nicht. GA4 ist das dominante Tool, und es hat bekannte Grenzen, wenn es um KI-Traffic geht. Die gleichen Grenzen gelten fur Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo und jedes andere Tool, das auf das Auslosen eines JavaScript-Tags in einem echten Browser angewiesen ist. Der Grund ist eher architektonisch als konfigurierbar, sodass der Versuch eines anderen Tools tendenziell am gleichen Punkt landet.

Wir haben das vollstandige Bild fur GA4 speziell in LLM-Traffic ist ein blinder Fleck in Ihrer Analytics behandelt, hier also die Kurzversion. Jedes Signal interagiert anders mit clientseitiger Analytik.

  • Training-Crawls sind nicht sichtbar, weil die Bots kein JavaScript ausfuhren. OpenAI-, Anthropic- und Google-KI-Trainingsabrufe losen clientseitige Tags von Natur aus nicht aus. GA4, Adobe, Mixpanel, Amplitude, Heap und die datenschutzfreundlichen Tools wie Plausible und Fathom teilen alle diese Lucke, weil keiner von ihnen eine Anfrage protokolliert, es sei denn, ein Browser fuhrt seinen Tag aus.
  • Konversations-Zitate geschehen vollstandig ausserhalb Ihrer Website. Die KI ruft Ihre Seite serverseitig im Auftrag eines Nutzers ab und rendert die Antwort im Chat. Kein Browser offnet sich, kein Analytics-Ereignis wird ausgelost, sodass diese Aktivitat in keinem clientseitigen Tool auftaucht.
  • Echte Nutzer-Empfehlungen sind in jedem clientseitigen Tool teilweise sichtbar, werden aber typischerweise um das 2,5- bis 5-fache unterzahlt. Mobile LLM-Apps rendern ausgehende Links in isolierten WebViews, die den Referrer entfernen. Gemini und Claude geben auf den meisten getesteten Plattformen uberhaupt kein Attributionssignal weiter. Google AI Overviews werden unter der organischen Suche gebundelt, was es schwierig macht, sie zu trennen. Die gleiche Bundelung erscheint gleich, ob der Bericht, den Sie lesen, in GA4, Adobe oder einer datenschutzfreundlichen Alternative ist.
2,5- bis 5-fach
GA4-Unterzahlung von LLM-empfohlenen Sitzungen im Vergleich zur serverseitigen Grundwahrheit, basierend auf praktischen Tests in Mobile- und Desktop-Szenarien.
WISLR Gerat-fur-Gerat-Tests

Die Losung ist kein besseres Tag, keine sauberere UTM-Strategie und kein Wechsel zu einem anderen clientseitigen Tool. Die Losung ist eine serverseitige Erfassung am Edge, klassifiziert nach User-Agent, verifiziertem IP-Bereich und Reverse-DNS und pro KI-Oberflache zusammengenaht. Das ist der einzige Weg, alle drei Signale gleichzeitig zu sehen, und es ist unabhangig davon, welches clientseitige Analytics-Tool Sie fur den Rest Ihres Traffics weiter verwenden.


Signal 1: LLM-Training

LLM-Training ist KI, die Ihre Marke und Inhalte liest, um die nachste Version ihrer Modelle zu fittern. Training-Crawler von OpenAI, Anthropic, Google, Common Crawl und ByteDance rufen Ihre Seiten nach einem kontinuierlichen Zeitplan ab, nehmen den Inhalt auf und rollen ihn in den nachsten Trainingszyklus. Dies ist die Grundlage jeder spateren Interaktion. Wenn ein Modell Ihre Seite nicht aufgenommen hat, kann es Sie nicht zitieren, kann Ihr Produkt nicht empfehlen und kann keinen Nutzer zu Ihnen senden.

Dies ist auch das Signal, in das GA4 und jedes andere clientseitige Analytics-Tool null Sichtbarkeit haben. Training-Crawls sind nur in Ihren serverseitigen Anfrage-Logs sichtbar.

KI-Training-Crawls sind jetzt auf Suchmaschinen-Niveau

Der Volumen-Kontext, den die meisten Teams ubersehen: Das Volumen der KI-Training-Crawls auf einer typischen inhaltsreichen Website ubersteigt jetzt das Volumen der Crawls von fuhrenden Suchmaschinen. OpenAI-, Anthropic-, Google-, Common-Crawl- und ByteDance-Trainings-Crawler erzeugen zusammen Anfragevolumen in derselben Grossenordnung wie Google Search und Bing zusammen. Auf vielen Websites ubersteigen KI-Training-Abrufe bereits die Suchmaschinen-Abrufe in der Haufigkeit.

~1:1
Verhaltnis von KI-Training-Crawl-Volumen zu fuhrendem Suchmaschinen-Crawl-Volumen auf einer typischen inhaltsreichen Website. KI kommt mit der gleichen Intensitat an, mit der Google Search die letzten zwanzig Jahre gekommen ist.
WISLR Client-Server-Logs

Dies ist kein kleines oder Nebenkanal-Signal mehr. Die Crawler, die entscheiden, was KI-Tools uber Ihre Marke wissen, kommen mit der gleichen Intensitat an wie die Crawler, die in den letzten zwanzig Jahren entschieden haben, was Google Search uber Ihre Marke wusste.

Worauf Sie achten sollten

Mit dem richtigen Tracking lasst sich das Trainingssignal in mehrere Dimensionen aufschlusseln, die fur das Handeln wichtig sind:

  • Tagliches Volumen nach KI-Engine uber gleitende 30-Tage- und All-Time-Fenster.
  • Trainings-Coverage als Prozentsatz der hochwertigen Seiten Ihrer Website, aufgeschlusselt nach Bereich.
  • Top-abgerufene Seiten mit Link-Out, Aktualisierungsfrequenz und welche KI-Oberflachen sie ziehen.
  • Seitentyp-Rollup, damit Sie auf einen Blick sehen konnen, ob die KI Ihre Produktseiten, Ihre Kategorieseiten, Ihre Artikel oder alle drei liest.
  • KI-Engine-Aufschlusselung. OpenAI dominiert moglicherweise, wahrend Googles KI-Training stumm ist; Anthropic bleibt moglicherweise bei Ihrem Blog, wahrend Common Crawl den Katalog flachendeckend abdeckt.
  • Medientypen. Dies ist die Dimension, die die meisten Teams vergessen. Mehr dazu als Nachstes.

Medien als Trainingsdaten: Uber den Artikeltext hinaus

Die grosste Lucke im Denken der meisten Teams ist, dass Training nicht nur Text ist. KI-Bots rufen auch Ihre Bilder, Videos und Audio ab. Jedes ist eine separate Trainingsoberflache, und jedes tragt unterschiedlichen Signalwert.

Mit besserem Tracking konnen Sie Seiten von Nicht-Seiten-Medien unterscheiden, um zu sehen, was jede KI-Engine tatsachlich konsumiert:

Inhaltstyp Was aufgenommen wird Warum es wichtig ist
Seiten Fliesstext, Uberschriften, interne Links, On-Page-Schema Bei weitem der grosste Anteil am Trainingsvolumen auf den meisten Websites.
Bilder Die Bilddatei selbst Beeinflusst, ob Ihre Produkte in visuellen Antworten erscheinen. Alt-Text und Bildunterschriften werden uber den Seitenabruf aufgenommen, nicht uber den Bildabruf.
Video Die Videodatei selbst Wird zunehmend abgerufen, da multimodale Modelle haufiger werden. Transkripte und Untertitel werden uber den Seitenabruf aufgenommen, nicht uber den Videoabruf.
Audio Die Audiodatei selbst Ein blinder Fleck fur die meisten Verlage; reichhaltiges Trainingsmaterial. Show Notes und Transkripte werden uber den Seitenabruf aufgenommen, nicht uber den Audioabruf.

Die praktische Implikation: Ihr Alt-Text, Ihre Transkripte und Ihr On-Page-Schema sind nicht mehr nur SEO-Hygiene. Sie sind Trainingseingaben. Je klarer sie sind, desto genauer reprasentiert ein Modell Ihre Marke und Inhalte gegenuber einem zukunftigen Nutzer. Die Shopify-Seite dieser Geschichte, in der Produkt-Feeds und strukturierte Daten zur Trainingsoberflache werden, ist in Shopify Agentic Plan: Produktdaten ausserhalb Ihrer Kontrolle behandelt.

Wichtige KPIs

Verfolgen Sie stattdessen
Verifiziertes Training-Crawl-Volumen pro KI-Engine
Beispiel
OpenAI248K Anthropic142K Google91K
Letzte 30 Tage
Verfolgen Sie stattdessen
Tatsachliche Abrufhaufigkeit auf Ihren Top-URLs
Beispiel
/guides/wide-feet-running412 / Wo /products/widefeet-pro184 / Wo /guides/best-trail-runners96 / Wo
Verfolgen Sie stattdessen
Re-Crawl-Kadenz und Coverage-Prozentsatz nach Bereich
Beispiel
/articles/ Bereichs-Coverage94% Re-crawled alle4 Tage /products/ Bereichs-Coverage78% Re-crawled alle11 Tage
Verfolgen Sie stattdessen
Seitentyp-Priorisierung (welche Bereiche die KI am meisten liest)
Beispiel
Artikel48% der Crawls Produkte31% der Crawls Kategorien21% der Crawls

Die richtige Frage fur das Trainingssignal ist nicht “wie viel werden wir gecrawlt”, sondern “wird der richtige Inhalt oft genug gecrawlt, von den KI-Engines, die wichtig sind.” Die Methodik, um von rohen Logs zu dieser Frage zu gelangen, ist in KI-Bot-Verhalten: Eine Log-Analyse-Methodik beschrieben.


Signal 2: Konversations-Zitate, die Echtzeitschicht

Konversations-Zitate sind KI, die Ihre Seite mitten im Chat abruft, um die Live-Frage eines Nutzers zu beantworten. Dies sind die Live-Abrufe von ChatGPT, Claude und Perplexity. Jeder Abruf ist per Definition ein Moment, in dem jemand eine Frage gestellt hat und das Modell entschieden hat, dass Ihre Seite die beste Antwort ist. Dies ist das Signal mit der hochsten Absicht der drei Signale, weil die Frage gerade jetzt beantwortet wird.

Es ist auch das Signal, das beweist, welcher Inhalt aus Sicht der KI tatsachlich Referenzqualitat hat. Training sagt Ihnen, was aufgenommen wurde. Zitate sagen Ihnen, was verwendet wird.

Worauf Sie achten sollten

Das Zitat-Signal lasst sich in dieselben Dimensionen wie das Trainingssignal aufschlusseln, aber die Bedeutung jeder Dimension verschiebt sich:

  • Tagliches Volumen der Live-Abrufe pro Assistent. Ein Spike auf einer bestimmten Seite korreliert oft mit einem aktuellen Nachrichtenzyklus oder einer neuen Vergleichsfrage, die weit verbreitet gestellt wird.
  • Zitat-Coverage, der Anteil Ihres Referenzinhalts, der im letzten Fenster mindestens einmal abgerufen wurde.
  • Top-abgerufene Seiten mit dem Assistenten, der sie abgerufen hat. Uberraschungen hier sind die Regel, nicht die Ausnahme. Die Seiten, die die KI zitiert, sind selten die Seiten, die Sie erwarten wurden.
  • KI-Oberflachen-Aufschlusselung. Verschiedene Assistenten priorisieren unterschiedliche Inhalte. ChatGPT und Perplexity bevorzugen tendenziell strukturierte Produkt- und Referenzinhalte; Claude bevorzugt tendenziell langere erklarende Texte.
  • Medientypen. Live-Zitatabrufe sind meist Seiten; Bilder und Videos werden seltener zitiert, wachsen aber mit der zunehmenden Verbreitung multimodaler Antworten.

Warum dieses Signal einzigartig wertvoll ist

Ein Live-Zitat ist das Naheste an einem Vertrauensvotum, das das KI-Okosystem produziert. Es ist das Modell, das vor einem echten Nutzer sagt: “Diese Seite ist die richtige Quelle fur diese Frage.” Wenn Sie nur ein Signal verfolgen wurden, ware es dieses.

Der Haken ist, dass nichts davon fur GA4 oder ein clientseitiges Tool sichtbar ist, weil der Abruf serverseitig erfolgt und der Nutzer nie auf Ihrer Seite landet. Der einzige Weg, Zitate zu sehen, ist am Edge.

Zitate vs. Share of Voice (SOV)

Share of Voice ist die Off-Site-Alternative, die die meisten Teams derzeit verwenden, wenn sie keine serverseitigen Zitate sehen konnen. Es ist eine Messung, wie oft Ihre Marke in KI-Antworten in einem Korb reprasentativer Prompts auftaucht. Eine wachsende Kategorie von Tools, darunter Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar und die KI-Module in Semrush und BrightEdge, fragen ChatGPT, Claude, Gemini und Perplexity im grossen Massstab ab, zahlen Markenerwahnungen und melden einen Anteil relativ zu einem Wettbewerbsset.

Es ist ein nutzliches richtungsweisendes Signal, aber unsere Praferenz fur die Messung der KI-Kanalleistung ist das Zitat-Signal oben, weil es tatsachliche Abrufe auf Seitenebene durch die abrufende Oberflache erfasst. SOV hat strukturelle blinde Flecken, die Zitate nicht haben.

SOV ist probabilistisch, Zitate sind beobachtet. KI-Modelle geben unterschiedliche Antworten auf denselben Prompt, abhangig von Temperatureinstellungen, Konversationskontext und Tageszeit. Fuhren Sie dieselbe Abfrage zweimal aus und Sie konnen zwei verschiedene Sets von Markenerwahnungen erhalten. SOV-Tools mildern dies durch Sampling und Mittelung, aber die zugrunde liegende Volatilitat ist real, und die Prazision einer einzelnen Zahl ist niedriger, als die meisten Berichte vermuten lassen. Zitatdaten hingegen sind ein Server-Log tatsachlicher Abrufe: Jeder ist passiert, und jeder ist zahlbar.

SOV nimmt Prompts als Stichprobe; Zitate sind in echten Konversationen verankert. Ein SOV-Tool fuhrt einen Korb von Prompts aus, die der Analyst gewahlt hat. Echte Nutzer stellen unterschiedliche Fragen, auf unterschiedliche Weise, mit unterschiedlichem Vorwissen. Die Stichprobe kann zu dem passen, was Ihre Kunden tatsachlich fragen, oder auch nicht, und die meisten Tools machen ihr Prompt-Set nicht transparent. Ein Live-Zitat kommt per Definition von einem echten Nutzer, der eine echte Frage stellt, sodass es keine Stichprobenverzerrung gibt.

Modelle andern sich. Jede neue Modellveroffentlichung, jede System-Prompt-Anpassung oder jede Retrieval-Anderung verschiebt, was zitiert wird. Eine SOV-Zahl, die gegen die Modelle des letzten Quartals gemessen wurde, ist eine andere Messung als eine, die gegen die dieses Quartals genommen wurde, und die meisten Tools sind nicht transparent uber Modellversionierung in ihren Berichten. Die Zitataktivitat passt sich in Echtzeit an, weil sie direkt vom Abruf erfasst wird, ohne Inferenzschicht dazwischen.

Der sauberste Weg, SOV zu verwenden, ist neben dem Zitat-Signal, nicht als Ersatz. SOV ist ein richtungsweisendes Off-Site-Benchmark, wie oft Ihre Marke in Antworten auftaucht. Zitate sind die verifizierte On-Site-Aufzeichnung, welche Seiten die KI tatsachlich verwendet hat, um sie zu produzieren. Zusammen verwendet, geben die Off-Site-Simulation und die On-Site-Wahrheit ein vollstandigeres Bild als jede allein.

Wichtige KPIs

Verfolgen Sie stattdessen
Verifizierte Zitatabrufe pro Seite, pro Assistent
Beispiel
Seite /guides/wide-feet
ChatGPT184 Perplexity92
Letzte 30 Tage
Verfolgen Sie stattdessen
Zitatfrequenz auf Ihren Top-Referenzseiten
Beispiel
/guides/agentic-commerce-10162 / Wo /guides/wide-feet-running38 / Wo /compare/perplexity-vs-chatgpt26 / Wo
Verfolgen Sie stattdessen
Zitatanteil nach Assistent, Wochen-fur-Wochen-Trend
Beispiel
ChatGPT62%+4 Pkt Perplexity24%-1 Pkt Claude14%unverandert
Woche fur Woche
Verfolgen Sie stattdessen
Zitatkonzentration nach Seitentyp
Beispiel
Vergleichsanleitungen52% der Zitate Artikel28% der Zitate Bewertungen14% der Zitate Sonstige6% der Zitate

Ein typisches Muster, gezeichnet aus echten Verlags- und E-Commerce-Implementierungen: Eine kleine Anzahl von Evergreen-Seiten produziert den Grossteil der Zitate, wahrend die Startseite selten in die Top 50 kommt. Wenn das Modell entschieden hat, dass Ihr ausfuhrlicher Vergleichsleitfaden die richtige Antwort auf eine Frage ist, wird es diese Seite hunderte Male pro Woche abrufen und Ihre Startseite uberhaupt nicht. Das ist das operative Signal, das Sie wollen.


Signal 3: Echte Nutzer, die hochintensive Empfehlung

KI-Engines sind Forschungsmaschinen, keine Unterbrechungskanale. Ein Nutzer, der auf ein Zitat in ChatGPT, Claude, Perplexity oder Copilot klickt, hat seine Frage bereits gestellt, die Antwort bewertet und Ihre Seite als nachsten Schritt gewahlt. Wenn sie auf Ihrer Website landen, sind sie weiter unten in der Uberlegungskurve als ein Nutzer aus jedem Kanal, der sie unterbrochen hat. In unseren Implementierungen ubersetzt sich das in hohere Konversionsraten und kurzere Uberlegungsfenster als Social, Display und oft sogar bezahlte Suche. Die Einordnung ist wichtig, weil KI-empfohlene Nutzer beim Eintreffen vorqualifiziert sind; fur den breiteren Kontext der Kauferreise siehe KI ist eine Forschungsmaschine, kein Verkaufskanal.

Dies ist auch das einzige Signal, das ein traditionelles Analytics-Tool uberhaupt sehen kann, und das Signal, auf das die meisten Teams zuruckgreifen, wenn sie “LLM-Traffic” horen. Es ist auch das Signal, bei dem die WebView-Lucke und die Gemini/Claude-No-Referrer-Lucke GA4 um den Faktor 2,5 bis 5 unterzahlen lassen, sodass die hohe Absicht mehr ungezahlt bleibt als jeder andere Kanal auf Ihrer Website.

Worauf Sie achten sollten

  • Sitzungen nach Quell-Assistent, serverseitig klassifiziert, statt sich auf Referrer-Header zu verlassen.
  • Landingpage-Verteilung. KI-empfohlene Nutzer landen tendenziell auf tiefen Seiten, nicht auf der Startseite.
  • Konversionsrate nach Quelle, gegen Ihre organische Baseline gebenchmarkt. In unseren Implementierungen lauft die KI-empfohlene Konversion typischerweise hoher als Social auf Pro-Sitzung-Basis.
  • Time-to-Purchase-Fenster. ChatGPT-Nutzer konvertieren tendenziell am gleichen Tag; Perplexity-Nutzer brauchen oft drei bis funf Tage; Gemini liegt dazwischen.
  • Umsatz-Attribution. Verifizierte IP-zu-Bestellung-Zuordnung fur die saubersten Falle, probabilistische Zuordnung fur den Rest.

Wie man Empfehlungs-Traffic von LLMs in Google Analytics misst (die ehrliche Antwort)

Die kurze Antwort ist: Sie konnen es nicht vollstandig. UTMs sind von ChatGPT vorhanden, aber nicht von Gemini oder Claude. Referrer sind von Desktop-Browsern vorhanden, aber auf mobilen Apps entfernt. AI Overviews tauchen unter der organischen Suche auf, ohne Trennungsmoglichkeit. Sie konnen ein partielles Bild aufbauen, indem Sie auf utm_source=chatgpt.com und auf die Referrer chatgpt.com, claude.ai, perplexity.ai, gemini.google.com und copilot.microsoft.com filtern, aber Sie werden ungefahr ein Viertel des tatsachlichen Traffics sehen.

Die ehrliche Antwort ist, dieses Signal serverseitig zu erfassen. Die vollstandige Attributionskarte mit jedem Gerat-fur-Gerat-Test, den wir durchgefuhrt haben, ist in LLM-Traffic ist ein blinder Fleck in Ihrer Analytics.

Mobil ist, wo die LLM-Attributionslucke am grossten ist

Hier ist der Teil der Empfehlungs-Unterzahlung, der am wichtigsten ist: Das Gerat, das die meisten Ihrer Zielgruppen nutzen, ist auch das Gerat, auf dem die KI-Attribution am schwersten klar zu sehen ist. Mobil treibt 70 bis 90 Prozent der verbraucherorientierten Website-Sitzungen, und es ist dort, wo die LLM-Apps leben. Auf den von uns getesteten Plattformen ist mobil die am wenigsten verfolgte Oberflache fur jeden wichtigen LLM.

Plattform Oberflache UTM Referrer In GA4 verfolgbar
ChatGPT Mobile App Ja
utm_source=chatgpt.com
Nein Teilweise
ChatGPT Mobile Browser Ja Ja Ja
Gemini Mobile App Nein Nein Nein
Gemini Mobile Browser Nein Nein Nein
Claude Mobile App Nein Nein Nein
Claude Mobile Browser Nein Nein Nein

Der strukturelle Grund ist, dass mobile LLM-Apps ausgehende Links in isolierten WebViews rendern, die den Referrer entfernen und die Sitzung von jedem vorherigen Browser-Kontext loslosen. iOS WebKits Intelligent Tracking Prevention verschlimmert das Problem auf dem iPhone, wo der WebView Cookie-Beschrankungen unterliegt, selbst wenn die Konversion innerhalb davon stattfindet.

Das Ergebnis ist, dass eine reine Empfehlungsansicht von LLM-Traffic am Ende meist wie eine Desktop-Ansicht aussieht, obwohl die tatsachliche Zielgruppe meist mobil ist. Plattformubergreifende Vergleiche, die aus GA4-Zahlen gezogen werden, sind leichter zu interpretieren, sobald diese Mobile-Lucke berucksichtigt wird. Die vollstandige Gerat-fur-Gerat-Matrix, einschliesslich der Desktop-Szenarien, ist in LLM-Traffic ist ein blinder Fleck in Ihrer Analytics.

Wichtige KPIs

Verfolgen Sie stattdessen
Serverseitige Anzahl KI-empfohlener Sitzungen
Beispiel
Serverseitige Erfassung6.420 Sitzungen Gleicher Zeitraum in GA41.840 Sitzungen
Letzte 30 Tage
Verfolgen Sie stattdessen
Konversionsrate gegenuber Ihrer organischen Baseline
Beispiel
KI4,8% Organic2,9% Social1,6%
Konversionsrate pro Sitzung
Verfolgen Sie stattdessen
Time-to-Purchase-Verteilung pro Quelle
Beispiel
ChatGPTGleicher Tag Gemini2 bis 3 Tage Perplexity4 bis 5 Tage
Verfolgen Sie stattdessen
Umsatz pro Sitzung, pro Assistent
Beispiel
ChatGPT$4,20 Perplexity$7,10 Gemini$3,40
Umsatz pro Sitzung

Fur einen tieferen Blick darauf, wie dies in die breitere Kauferreise passt, siehe KI ist eine Forschungsmaschine, kein Verkaufskanal. Die Einordnung ist wichtig, weil KI-empfohlene Nutzer oft Forscher in der Mid-Funnel-Phase sind und den Kanal nur an der Konversion in derselben Sitzung zu beurteilen, wird ihn unterbewerten.


Vom Signal zur Aktion: Wie LLM-Traffic-Daten Wirkung erzielen

Messung verdient ihren Wert nur, wenn sie zu Aktion fuhrt. Mit den drei Signalen gemeinsam verfolgt, tauchen aus den Cross-Signal-Daten zuverlassig zwei Empfehlungsmuster auf, sowie ein laufendes Protokoll, das ein Team uber das Bearbeitete fuhren kann.

Content-Aktualitat

Die Top-Training-gecrawlten URLs der letzten 30 Tage, sortiert nach Abrufhaufigkeit. Die Empfehlung ist direkt: Halten Sie sie genau, weil Modelle das lernen werden, was gerade auf der Seite ist, und Ihre Marke entsprechend gegenuber zukunftigen Nutzern reprasentieren werden. Eine veraltete Seite, auf der OpenAI nachtlich trainiert, ist eine veraltete Seite, die ChatGPT fur den nachsten Trainingszyklus falsch darstellen wird.

Aktion: Uberprufen Sie jede Top-gecrawlte Seite in einer wiederkehrenden Kadenz, beheben Sie alles Veraltete und fuhren Sie eine Aufzeichnung daruber, was wann uberpruft wurde, sodass Aktualitat zu einem verfolgten Workflow wird, statt zu einer einmaligen Prufung.

Gecrawlte, aber nicht zitierte Seiten

Seiten, die KI-Training-Bots abrufen, die aber im selben Fenster null Zitate und null Empfehlungen produziert haben. Aufgeteilt in Produkte und Kategorien fur E-Commerce, in Artikeltypen fur Verlage. Dies ist die Zitat-Lucke, und sie ist normalerweise das Muster mit der hochsten Hebelwirkung, auf das man reagieren kann.

Die Bots haben die Seite gelesen. Das Modell hat nicht entschieden, sie zu zitieren. Die Losung ist fast immer dieselbe Familie von Anderungen: klarere Titel, bessere Beschreibungen, FAQ-artiger Text und JSON-LD, das das Produkt, die Zielgruppe und die Antwort auf die offensichtliche Frage benennt.

Aktion: Schreiben Sie die Seite um, damit sie zitierbarer wird, und verfolgen Sie dann das Zitat-Signal auf dieser URL in den nachsten zwei Wochen, um die Losung zu uberprufen.

Die Cross-Signal-Aktionskarte

Sobald Sie alle drei Signale erfasst haben, tauchen vier Muster auf, und jedes weist auf spezifische Arbeit hin. Jede Zelle zeigt, ob dieses Signal aktiv ist (die Seite taucht dort auf), fehlt (das Signal ist abwesend), schwach (das Signal ist da, aber unterperformend) oder n/v, wenn die Frage fur das Muster nicht gilt.

Training Zitate Empfehlungen Muster Aktion
Aktiv Aktiv Aktiv KI-Superstar Schutzen Sie die Seite. Halten Sie Titel und Text stabil, uberwachen Sie auf Drift, sperren Sie das JSON-LD.
Aktiv Fehlt Fehlt Zitat-Lucke Fur den KI-Konsum umschreiben: klarere Titel, bessere Beschreibungen, FAQ-artiger Text, reichhaltigeres JSON-LD.
Aktiv Aktiv Schwach Klick-Through-Problem Zitat-Framing oder Seitenladezeit verliert den Nutzer. Prufen Sie Seitengeschwindigkeit, Hero-Klarheit und das Snippet, das die KI zitiert.
Fehlt n/v n/v Coverage-Lucke Beheben Sie Auffindbarkeit: robots.txt, Sitemaps, interne Verlinkung und Pro-Engine-Zugriffsprufungen.

Das ist es, was wir mit “LLM-Traffic-Daten treiben Aktion” meinen. Wenn die drei Signale nebeneinander sitzen, weist jedes Muster auf eine spezifische Art von Arbeit hin, sodass ein Team eine Anderung priorisieren kann, die diese Woche ausgeliefert wird, und den Einfluss nachste Woche prufen kann.


Wie Sie Ihre Content-Coverage fur Training und Zitate benchmarken

In der Google-Search-Ara war Indexierung die grundlegende Gesundheitskennzahl. Bevor eine Seite ranken, Klicks erzielen oder konvertieren konnte, musste sie im Index sein. Coverage ist die gleiche Kennzahl fur die LLM-Ara, und sie verdient es, als eigene Sache verfolgt zu werden, nicht in eines der Signale eingeordnet.

Der Nordstern-Vergleich
Google-Search-Ara
LLM-Ara
Indexierung (vorgelagertes Tor)
Coverage (vorgelagertes Tor)
Ranking
Zitate
Klicks
Empfehlungen

Coverage ist der Prozentsatz der Inhalte, die Ihnen wichtig sind, die KI tatsachlich liest und nutzt. Sie ist das Naheste an einer Nordstern-Zahl fur den KI-Kanal, weil sie vor jedem anderen Signal sitzt. Wenn ein Modell Ihre Seite nicht aufgenommen hat, kann KI sie nicht zitieren. Wenn eine Seite nie zitiert wird, kann KI keinen Nutzer dorthin schicken. Coverage ist das Tor, das entscheidet, ob der Rest des Funnels uberhaupt moglich ist.

Coverage als eigene Kennzahl zu behandeln, getrennt von einem der drei Signale, ist das, was den KI-Kanal auf eine Weise messbar macht, die Teams, die mit organischer Suche vertraut sind, bereits verstehen. Die Frage verschiebt sich von “werden wir gecrawlt” zu “erreicht genug vom richtigen Inhalt die Antwort.” Coverage teilt sich sauber entlang der ersten beiden Signale.

Trainings-Coverage-Benchmark

Definieren Sie zuerst Ihr Inhalts-Universum von Bedeutung. Fur ein E-Commerce-Team sind dies typischerweise alle aktiven Produktseiten, alle Kategorieseiten und alle Evergreen-Anleitungen. Fur einen Verlag sind es das Artikel-Archiv plus Referenz- und Themen-Landingpages. Das Universum ist der Nenner.

Dann fragen Sie: In den letzten 30 Tagen, welcher Prozentsatz dieser URLs wurde mindestens einmal von einem verifizierten Training-Crawler einer der grossen KI-Engines abgerufen? Das ist Ihre 30-Tage-Trainings-Coverage. Eine gesunde Website mit angemessener interner Verlinkung und einer sauberen Sitemap sollte 90 Prozent oder hoher laufen. Darunter haben Sie ein Auffindbarkeitsproblem: Die Bots konnen einen bedeutungsvollen Teil Ihres Inventars nicht finden oder nicht dorthin zuruckkehren.

Dann teilen Sie dieselbe Zahl nach KI-Engine. Pro-Engine-Coverage ist, wo der Hebel lebt. OpenAI deckt vielleicht 95 Prozent ab, wahrend Google 40 Prozent abdeckt und Anthropic 70 Prozent. Diese Spreizung sagt Ihnen genau, wo Sie in oberflachenspezifischen Zugriff investieren sollten (robots.txt-Uberprufung, Sitemap-Einreichung, Verbesserungen strukturierter Daten) und welche Modelle Ihre Marke gegenuber einem zukunftigen Nutzer genau oder schlecht reprasentieren werden.

Zitat-Coverage-Benchmark

Zitat-Coverage wird auf die gleiche Weise gegen einen engeren Nenner aufgebaut: Ihr Referenzinhalt, die Seiten, von denen Sie erwarten wurden, dass die KI sie zitiert, wenn sie Ihre Website korrekt verstunde. Fur ein E-Commerce-Team sind dies typischerweise die Anleitungen, Vergleiche und FAQ-artige Inhalte, nicht die Produktseiten selbst. Fur einen Verlag sind es Ihre Evergreen- und Referenzartikel.

Fragen Sie: In den letzten 30 Tagen, welcher Prozentsatz dieser Referenz-URLs hat mindestens einen Live-Abruf von ChatGPT, Claude oder Perplexity erhalten? Das ist Ihre 30-Tage-Zitat-Coverage. Eine Website, deren Referenzinhalt gut strukturiert, gut betitelt und JSON-LD-angereichert ist, sollte 60 bis 80 Prozent laufen. Unter 40 Prozent ist ein Zitierbarkeitsproblem, fast immer durch klarere Titel, bessere Beschreibungen, FAQ-artigen Text und mehr strukturierte Daten losbar.

Dann teilen Sie nach Assistent. ChatGPT wird auf den meisten Websites das Volumen dominieren; Claude wird in jedem Tool, das nicht-verifizierbaren Bot-Traffic nicht korrekt handhabt, unterreprasentiert sein (siehe die Anthropic-Notiz oben); Perplexity wird auf strukturierten Produkt- und Referenzinhalten uberindexieren.

Wie gesund insgesamt aussieht

Genaue Schwellenwerte variieren je nach Archivtiefe, Inhaltsmix und Zielgruppe, aber das Muster eines gesunden Profils ist konsistent genug zum Veroffentlichen:

  • Trainings-Coverage Ihrer Top-100-Seiten: bei oder nahe 100 Prozent in einem 30-Tage-Fenster, mit mindestens drei bis vier KI-Engines, die aktiv abrufen.
  • Zitat-Coverage Ihres Referenzinhalts: 60 bis 80 Prozent in einem 30-Tage-Fenster. Unter 40 Prozent weist auf Zitierbarkeitslucken in Titeln, Beschreibungen und strukturierten Daten hin.
  • Top-Zitatseiten: evergreen, ausfuhrlich, referenzwurdiger Inhalt. Die Startseite sollte nicht in den Top 20 sein.
  • Zitatkonzentration: 60 bis 80 Prozent aller Zitate auf Ihren Top-30-Seiten ist normal. Konzentration nur auf Ihren Top 5 bedeutet, dass Ihre Referenzoberflache zu eng ist. Wenn Ihre Zahlen scharf von diesem Muster abweichen, ist die Diagnose normalerweise Lucken in strukturierten Daten, Inhalte, die das Modell nicht als zitierbar betrachtet, oder ein Coverage-Problem, das interne Verlinkung und Sitemaps beheben konnen.

Fur die grundlegende Einfuhrung in KI-Sichtbarkeit vor all dem siehe KI-Sichtbarkeit verstehen. Fur das Sieben-KPI-Framework, das sauber auf das Drei-Signal-Modell abgebildet wird, siehe KI-Leistungskennzahlen: Sieben KPIs, die jede Marke verfolgen sollte.


Aufhoren zu schatzen, anfangen zu aktivieren

Wenn LLM-Traffic als einzelne Zahl gemeldet wird, geht viel nutzlicher Kontext verloren. Starker Inhalt kann ruhiger aussehen, als er wirklich ist, weil der grosste Teil seiner Wirkung ausserhalb des Analytics-Tools landet. Vielversprechende Leistung ist schwer auf die vorgelagerte Aktivitat zuruckzufuhren, die sie verdient hat. Teams stutzen sich am Ende auf indirekte Signale, weil die direkten noch nicht sichtbar sind.

Drei Signale auf Ihrer Website fullen dieses Bild aus. Training zeigt Ihnen, was die KI uber Ihre Marke und Inhalte aufnimmt. Zitate zeigen Ihnen, welche Seiten die KI nutzt, um echte Fragen in Echtzeit zu beantworten. Empfehlungen zeigen Ihnen die hochintensiven Nutzer, die die KI durchschickt. Vorgelagert zu allen drei sitzt Coverage, das LLM-Ara-Aquivalent zur Indexierung, und das Tor, das entscheidet, ob der Rest des Funnels uberhaupt moglich ist.

Zusammen gelesen, geben die drei Signale einem Team ein klares Cross-Signal-Muster, auf das es jede Woche reagieren kann. KI-Superstars sind Seiten, die zu schutzen sind, Zitat-Lucken sind Seiten, die umzuschreiben sind, Klick-Through-Probleme weisen auf Ladegeschwindigkeit und Snippet-Framing hin, und Coverage-Lucken weisen auf Auffindbarkeit hin. Off-Site ist Share of Voice ein nutzliches richtungsweisendes Benchmark fur die Konversationen, die in KI-Antworten stattfinden, aber zur Messung echter Leistungswirkung ist das On-Site-Drei-Signal-Modell das, an dem sich Marken unserer Meinung nach orientieren sollten, wenn sie in KI-Kanal-Wachstum investieren.

Zusammen verwandeln sie den KI-Kanal von etwas, das man schatzen muss, in etwas, das Ihr Team mit Vertrauen planen, messen und worauf es reagieren kann.

AI Channel Analytics einrichten

Alle drei Signale in einem Dashboard

Das Dashboard unten fasst die drei On-Site-Signale in einer einzigen Ansicht zusammen, wobei Content-Coverage als vorgelagertes Tor parallel verfolgt wird. Training-Crawls landen pro Seite, Zitate werden nach Engine aufgeschlusselt und Referrals werden durchgangig bis zum Umsatz attribuiert.

Sehen Sie sich die Dashboard-Demo an

Haufig gestellte Fragen

Was ist der Unterschied zwischen KI-Training-Crawls und KI-Zitat-Abrufen?

Training-Crawls laufen im Hintergrund und liefern Trainingsdaten fur Modelle. KI-Engines wie OpenAI, Anthropic, Google und Common Crawl fuhren sie nach einem Zeitplan aus. Zitat-Abrufe geschehen in Echtzeit, wenn ein Nutzer eine Frage stellt und ein KI-Assistent eine Seite im Auftrag des Nutzers abruft, um zu antworten. Die Agenten, auf die Sie in Ihren Logs achten sollten, sind ChatGPT-User, Claude-User und Perplexity-User. Training pragt, was die KI uber Ihre Marke weiss; Zitate zeigen, was die KI gerade aktiv nutzt, um Fragen zu beantworten.

Woher weiss ich, ob mein Inhalt von ChatGPT, Claude oder Perplexity zitiert wird?

Der vollstandige Weg ist, serverseitige Anfrage-Logs am Edge zu erfassen und sie nach User-Agent und verifiziertem IP-Bereich zu klassifizieren. ChatGPT-User, Claude-User und Perplexity-User identifizieren sich in der Anfrage, sodass die serverseitige Erfassung Ihnen ein Pro-Seite- und Pro-Assistent-Protokoll liefert, wann jede KI eine Seite abgerufen hat, um eine Live-Frage zu beantworten. Clientseitige Analytics-Tools wie GA4, Adobe, Mixpanel, Amplitude, Heap, Plausible, Fathom und Matomo konnen dieses Signal nicht sehen, weil der Abruf nie einen Browser offnet und nie einen JavaScript-Tag auslost.

Was ist Content-Coverage fur LLMs und warum ist sie wichtig?

Content-Coverage ist der Prozentsatz der Inhalte, die Ihnen wichtig sind, die KI-Engines tatsachlich lesen und nutzen. Sie funktioniert wie die Indexierung bei Google Search: Sie sitzt vor jedem anderen Signal. Wenn die KI Ihre Seite nicht aufgenommen hat, kann sie sie nicht zitieren. Wenn sie die Seite nicht zitiert hat, kann sie keinen Nutzer dorthin schicken. Coverage ist die grundlegende Gesundheitskennzahl fur die Messung des KI-Kanals und kommt einem Nordstern fur den KI-Kanal am nachsten.

Was ist Share of Voice in der KI-Suche und wie vergleicht es sich mit Zitat-Tracking?

Share of Voice ist eine Off-Site-Messung, wie oft Ihre Marke in KI-generierten Antworten in einem Stichprobenkorb von Prompts erscheint. Tools wie Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar und die KI-Module in Semrush und BrightEdge fragen KI-Engines im grossen Massstab ab und melden einen relativen Anteil. Es ist nutzlich fur Wettbewerbs-Benchmarking, aber probabilistisch und unvollstandig, da KI-Antworten nicht-deterministisch sind und die Prompt-Auswahl vom Analysten getroffen wird. Zitat-Tracking hingegen ist die verifizierte serverseitige Aufzeichnung, welche Seiten die KI tatsachlich abgerufen hat, um echte Fragen zu beantworten. Verwenden Sie Share of Voice fur richtungsweisendes Benchmarking und Zitate fur die Leistungsmessung.

Warum berichtet Google Analytics 4 KI-Empfehlungs-Traffic zu niedrig?

GA4 unterzahlt KI-empfohlene Sitzungen typischerweise um den Faktor 2,5 bis 5. Die Ursache ist strukturell und nicht konfigurierbar. Mobile LLM-Apps rendern ausgehende Links in isolierten WebViews, die den Referrer entfernen. Gemini und Claude geben auf den meisten getesteten Plattformen uberhaupt kein Attributionssignal weiter. Google AI Overviews werden unter der organischen Suche gebundelt, ohne Moglichkeit, sie zu trennen. Dieselben Lucken gelten fur jedes andere clientseitige Analytics-Tool, weil das Problem das JavaScript-Tag-Messmodell selbst ist und nicht das Tool.

Wie verhalten sich KI-empfohlene Nutzer anders als organischer oder sozialer Traffic?

KI-empfohlene Nutzer konvertieren tendenziell zu hoheren Pro-Sitzung-Raten als Social und oft hoher als Organic, sobald AI Overviews von Organic getrennt werden. Sie kommen, nachdem sie die Frage mit der KI recherchiert, die Antwort bewertet und Ihre Seite als nachsten Schritt gewahlt haben, sodass sie weiter unten in der Uberlegungskurve sind als Nutzer aus Kanalen, die sie unterbrochen haben. Die Time-to-Purchase variiert je nach KI-Engine. ChatGPT-Nutzer konvertieren tendenziell am gleichen Tag, Gemini-Nutzer brauchen mehrere Tage, Perplexity-Nutzer oft drei bis funf Tage. Eine kurze Attributionsfenster fur alle unterzahlt den Kanal.

Wo fange ich an, wenn die Messung des KI-Kanals fur mein Team neu ist?

Beginnen Sie mit Content-Coverage. Bestatigen Sie, dass die wichtigsten KI-Engines, OpenAI, Anthropic, Google, Perplexity und Common Crawl, die Inhalte erreichen und aktiv lesen, die wichtig sind. Sobald das vorgelagerte Bild klar ist, schichten Sie Zitat-Tracking ein, um zu sehen, welche Seiten die KI tatsachlich nutzt, um Fragen zu beantworten. Fugen Sie die Empfehlungs-Attribution zuletzt hinzu, weil eine Empfehlungszahl ohne Coverage- und Zitat-Kontext nicht handlungsfahig ist. Coverage ist das Tor, auf dem jedes andere Signal aufbaut, und damit anzufangen schafft eine Grundlage, auf der der Rest des Frameworks wachsen kann.