LLM-verkeer monitoren: de drie signalen (training, citaten, verwijzingen)
Wat LLM-verkeer eigenlijk is
LLM-verkeer wordt vaak besproken als een enkel getal, en die framing laat veel op tafel liggen. Op je eigen site verschijnt AI-activiteit eigenlijk als drie verschillende signalen die je direct kunt meten, elk geproduceerd door een ander type AI-gedrag en elk wijzend op verschillend werk. Een vierde signaal, Share of Voice, wordt off-site gemeten. Het is een minder betrouwbare prestatiedimensie, maar het is de aanpak die de meeste teams momenteel gebruiken voor de off-site weergave. Naarmate teams zich richten op AI-kanaalgroei, geloven we dat merken zich rond dit drie-signaal-model moeten orienteren voor het meten van prestaties.
Elk signaal is het waard om afzonderlijk te volgen, geordend op waar de gebruiker is wanneer elk signaal plaatsvindt: trainingstijd voordat een gebruiker betrokken is, een live gesprek waarin een gebruiker op dit moment een vraag stelt, en een doorklik waarbij een gebruiker op je site is. Dit drie-signaal-model legt vast hoe AI daadwerkelijk omgaat met een site, wat uitgevers en e-commerce-operators nodig hebben om beslissingen tegen te nemen. We hebben AI Channel Analytics gebouwd rond hetzelfde model.
Zodra je in drie signalen denkt in plaats van een enkel getal, worden de vragen die teams het vaakst stellen, hoe LLM-verkeer te monitoren, wat thuishoort op het dashboard en welke getallen het nuttigst zijn, een stuk gemakkelijker te beantwoorden.
Waarom GA4 en andere client-side analytics-tools hier moeite mee hebben
Voordat we ingaan op de signalen, een snel woord over wat bestaande analytics-tools wel en niet kunnen tonen. GA4 is de dominante tool en heeft welbekende beperkingen als het gaat om AI-verkeer. Dezelfde beperkingen gelden voor Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo en elke andere tool die afhankelijk is van een JavaScript-tag die in een echte browser wordt geactiveerd. De reden is architecturaal in plaats van configureerbaar, dus het proberen van een andere tool brengt je meestal op dezelfde plek.
We hebben het volledige beeld voor GA4 specifiek behandeld in LLM-verkeer is een blinde vlek in je analytics, dus hier is de korte versie. Elk signaal werkt anders met client-side analytics.
- Trainingscrawls zijn niet zichtbaar omdat de bots geen JavaScript uitvoeren. OpenAI-, Anthropic- en Google AI-trainingsfetches activeren client-side tags niet door ontwerp. GA4, Adobe, Mixpanel, Amplitude, Heap en de privacy-eerst-tools zoals Plausible en Fathom delen allemaal deze lacune omdat geen van hen een aanvraag registreert tenzij een browser hun tag uitvoert.
- Gespreks-citaten vinden volledig buiten je site plaats. De AI haalt je pagina server-side op namens een gebruiker en rendert het antwoord in de chat. Geen browser opent, geen analytics-event wordt geactiveerd, dus deze activiteit verschijnt niet in een client-side tool.
- Echte gebruikersverwijzingen zijn gedeeltelijk zichtbaar in elk client-side tool, maar typisch ondergeteld met een factor van 2,5x tot 5x. Mobiele LLM-apps renderen uitgaande links in geisoleerde WebViews die de referrer verwijderen. Gemini en Claude geven op de meeste geteste platforms helemaal geen attributiesignaal door. Google AI Overviews worden gebundeld onder organische zoekopdrachten, wat ze moeilijk te scheiden maakt. Dezelfde bundeling verschijnt op dezelfde manier of het rapport dat je leest in GA4, Adobe of een privacy-eerst alternatief is.
De oplossing is geen betere tag, een schonere UTM-strategie of een overstap naar een andere client-side tool. De oplossing is server-side capture aan de rand, geclassificeerd op user agent, geverifieerd IP-bereik en reverse DNS, en aan elkaar genaaid per AI-oppervlak. Dat is de enige manier om alle drie de signalen tegelijk te zien, en het is onafhankelijk van welk client-side analytics-tool je ook draait voor de rest van je verkeer.
Signaal 1: LLM-training
LLM-training is AI die je merk en content leest om de volgende versie van zijn modellen te voeden. Trainingscrawlers van OpenAI, Anthropic, Google, Common Crawl en ByteDance halen je pagina’s op een continu schema op, nemen de inhoud op en rollen deze in de volgende trainingscyclus. Dit is de basis van elke latere interactie. Als een model je pagina niet heeft opgenomen, kan het je niet citeren, kan het je product niet aanbevelen en kan het geen gebruiker naar je toe sturen.
Dit is ook het signaal waar GA4 en elk ander client-side analytics-tool nul zichtbaarheid in hebben. Trainingscrawls zijn alleen zichtbaar in je server-side aanvraaglogs.
AI-trainingscrawls zijn nu op zoekmachineschaal
De volumecontext die de meeste teams missen: AI-trainingscrawl-volume op een typische content-rijke site rivaliseert nu met het volume van crawls van toonaangevende zoekmachines. OpenAI-, Anthropic-, Google-, Common Crawl- en ByteDance-trainingscrawlers produceren samen aanvraagvolumes in dezelfde orde van grootte als Google Search en Bing gecombineerd. Op veel sites overtreffen AI-trainingsfetches al de zoekmachine-fetches in frequentie.
Dit is geen klein of nevenkanaal-signaal meer. De crawlers die beslissen wat AI-tools weten over je merk arriveren met dezelfde intensiteit als de crawlers die de afgelopen twintig jaar beslisten wat Google Search wist over je merk.
Wat te bekijken
Met de juiste tracking op zijn plaats wordt het trainingssignaal opgesplitst in verschillende dimensies die belangrijk zijn voor actie:
- Dagelijks volume per AI-engine over rollende vensters van 30 dagen en alle tijden.
- Trainingsdekking als percentage van de hoogwaardige pagina’s op je site, uitgesplitst per sectie.
- Top opgehaalde pagina’s met link-out, verfrissingsfrequentie en welke AI-oppervlakken ze trekken.
- Pagina-type-overzicht zodat je in een oogopslag kunt zien of de AI je productpagina’s, je categoriepagina’s, je artikelen of alle drie leest.
- AI-engine-uitsplitsing. OpenAI kan domineren terwijl Google’s AI-training stil is; Anthropic kan vasthouden aan je blog terwijl Common Crawl de catalogus afdekt.
- Mediatypen. Dit is de dimensie die de meeste teams vergeten. Daarover hierna meer.
Media als trainingsdata: voorbij het artikellichaam
De grootste lacune in het denken van de meeste teams is dat training niet alleen tekst is. AI-bots halen ook je afbeeldingen, video en audio op. Elk is een afzonderlijk trainingsoppervlak en elk draagt verschillende signaalwaarde.
Met betere tracking op zijn plaats kun je pagina’s onderscheiden van niet-pagina-media om te zien wat elke AI-engine daadwerkelijk consumeert:
De praktische implicatie: je alt-tekst, transcripties en schema op de pagina zijn niet langer alleen SEO-hygiene. Ze zijn trainingsinputs. Hoe duidelijker ze zijn, hoe nauwkeuriger een model je merk en content vertegenwoordigt aan een toekomstige gebruiker. De Shopify-kant van dit verhaal, waar productfeeds en gestructureerde data het trainingsoppervlak worden, wordt behandeld in Shopify Agentic Plan: productdata buiten je controle.
KPI’s die ertoe doen
De juiste vraag voor het trainingssignaal is niet “hoeveel worden we gecrawld” maar “wordt de juiste content vaak genoeg gecrawld door de AI-engines die ertoe doen”. De methodologie om van ruwe logs naar die vraag te komen staat in AI-bot-gedrag: een logs-analyse-methodologie.
Signaal 2: Gespreks-citaten, de real-time laag
Gespreks-citaten zijn AI die je pagina midden in de chat ophaalt om de live vraag van een gebruiker te beantwoorden. Dit zijn de live fetches van ChatGPT, Claude en Perplexity. Elke fetch is per definitie een moment waarop iemand een vraag stelde en het model besliste dat jouw pagina het beste antwoord was. Dit is het signaal met de hoogste intentie van de drie signalen omdat de vraag op dit moment wordt beantwoord.
Het is ook het signaal dat bewijst welke content daadwerkelijk referentiekwaliteit heeft in de visie van de AI. Training vertelt je wat is opgenomen. Citaten vertellen je wat wordt gebruikt.
Wat te bekijken
Het citaatsignaal wordt opgesplitst langs dezelfde dimensies als het trainingssignaal, maar de betekenis van elk verschuift:
- Dagelijks volume van live fetches per assistent. Een piek op een specifieke pagina correleert vaak met een actuele nieuwscyclus of een nieuwe vergelijkingsvraag die op grote schaal wordt gesteld.
- Citaatdekking, het aandeel van je referentiekwaliteit-content dat in het laatste venster ten minste eenmaal is opgehaald.
- Top opgehaalde pagina’s met de assistent die ze ophaalde. Verrassingen hier zijn de regel, niet de uitzondering. De pagina’s die AI citeert zijn zelden de pagina’s die je zou verwachten.
- AI-oppervlak-uitsplitsing. Verschillende assistenten geven prioriteit aan verschillende content. ChatGPT en Perplexity neigen ertoe gestructureerde product- en referentie-content te bevoordelen; Claude neigt ertoe lange-vorm exposerend schrijven te bevoordelen.
- Mediatypen. Live citaat-fetches zijn meestal pagina’s; afbeeldingen en video worden minder vaak geciteerd, maar groeien naarmate multimodale antwoorden gebruikelijk worden.
Waarom dit signaal uniek waardevol is
Een live citaat is het dichtst bij een vertrouwensstem die het AI-ecosysteem produceert. Het is het model dat zegt, voor een echte gebruiker: “deze pagina is de juiste bron voor deze vraag”. Als je slechts een signaal volgde, zou dit het zijn.
Het probleem is dat geen daarvan zichtbaar is voor GA4 of een client-side tool, omdat de fetch server-side gebeurt en de gebruiker nooit op je pagina landt. De enige manier om citaten te zien is aan de rand.
Citaten vs. Share of Voice (SOV)
Share of Voice is het off-site alternatief dat de meeste teams momenteel gebruiken wanneer ze server-side citaten niet kunnen zien. Het is een meting van hoe vaak je merk verschijnt in AI-antwoorden in een mandje van representatieve prompts. Een groeiende categorie tools, waaronder Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar en de AI-modules in Semrush en BrightEdge, bevragen ChatGPT, Claude, Gemini en Perplexity op schaal, tellen merkvermeldingen en rapporteren een aandeel ten opzichte van een concurrentieset.
Het is een nuttig richtingssignaal, maar onze voorkeur voor het meten van AI-kanaalprestaties is het citaatsignaal hierboven, omdat het werkelijke fetches op pagina-niveau door het oppervlak dat de fetch deed vastlegt. SOV heeft structurele blinde vlekken die citaten niet hebben.
SOV is probabilistisch, citaten worden waargenomen. AI-modellen geven verschillende antwoorden op dezelfde prompt afhankelijk van temperatuurinstellingen, gesprekscontext en tijd van de dag. Voer dezelfde query tweemaal uit en je kunt twee verschillende sets merkvermeldingen krijgen. SOV-tools mitigeren dit door bemonstering en middeling, maar de onderliggende volatiliteit is reeel, en de precisie van een enkel getal is lager dan de meeste rapporten suggereren. Citaatdata daarentegen zijn een serverlog van werkelijke fetches: elk gebeurde, en elk is telbaar.
SOV bemonstert prompts; citaten zijn verankerd aan echte gesprekken. Een SOV-tool voert een mandje prompts uit dat de analist heeft gekozen. Echte gebruikers stellen verschillende vragen, op verschillende manieren, met verschillende voorgaande context. De steekproef kan al dan niet overeenkomen met wat je klanten daadwerkelijk vragen, en de meeste tools maken hun promptset niet transparant. Een live citaat kwam per definitie van een echte gebruiker die een echte vraag stelde, dus er is geen bemonsteringsbias.
Modellen veranderen. Elke nieuwe modelrelease, systeem-prompt-aanpassing of retrieval-wijziging verschuift wat wordt geciteerd. Een SOV-figuur gemeten tegen de modellen van vorig kwartaal is een andere meting dan een genomen tegen die van dit kwartaal, en de meeste tools zijn niet transparant over modelversiebeheer in hun rapporten. Citaatactiviteit past zich in real-time aan omdat het direct vanuit de fetch wordt vastgelegd, zonder inferentielaag ertussen.
De schoonste manier om SOV te gebruiken is naast het citaatsignaal, niet als vervanging. SOV is een richtinggevende, off-site benchmark van hoe vaak je merk verschijnt in antwoorden. Citaten zijn het geverifieerde, on-site record van welke pagina’s AI daadwerkelijk gebruikte om ze te produceren. Samen gebruikt geven de off-site simulatie en de on-site waarheid een vollediger beeld dan elk afzonderlijk.
KPI’s die ertoe doen
Een typisch patroon, getrokken uit echte uitgever- en e-commerce-implementaties: een kleine set evergreen pagina’s produceert het grootste deel van de citaten, terwijl de homepage zelden in de top 50 komt. Als het model heeft besloten dat je diepgaande vergelijkingsgids het juiste antwoord op een vraag is, zal het die pagina honderden keren per week ophalen en niet je homepage. Dat is het operationele signaal dat je wilt.
Signaal 3: Echte gebruikers, de hoge-intentie verwijzing
AI-engines zijn onderzoeksengines, geen onderbrekingskanalen. Een gebruiker die op een citaat in ChatGPT, Claude, Perplexity of Copilot klikt heeft al zijn vraag gesteld, het antwoord geevalueerd en jouw pagina als volgende stap gekozen. Tegen de tijd dat ze op je site landen zijn ze verder in de overwegingscurve dan een gebruiker van elk kanaal dat hen onderbrak. In onze implementaties vertaalt zich dat in hogere conversiepercentages en kortere overwegingsvensters dan sociaal, display en vaak zelfs betaalde zoekopdrachten. De framing is belangrijk omdat door AI verwezen gebruikers vooraf gekwalificeerd zijn tegen de tijd dat ze aankomen; voor de bredere koperstraject-context, zie AI is een onderzoeksengine, geen verkoopkanaal.
Dit is ook het enige signaal dat een traditioneel analytics-tool uberhaupt kan zien, en het signaal waar de meeste teams op terugvallen wanneer ze “LLM-verkeer” horen. Het is ook het signaal waar de WebView-gap en de Gemini/Claude no-referrer-gap GA4 doen onderrapporteren met een factor van 2,5 tot 5, dus de hoge intentie blijft meer ongeteld dan elk ander kanaal op je site.
Wat te bekijken
- Sessies per bron-assistent, server-side geclassificeerd in plaats van te vertrouwen op referrer-headers.
- Landingspagina-distributie. Door AI verwezen gebruikers neigen ertoe op diepe pagina’s te landen, niet op de homepage.
- Conversiepercentage per bron, gebenchmarkt tegen je organische baseline. In onze implementaties loopt door AI verwezen conversie typisch hoger dan sociaal op een per-sessie basis.
- Tijd-tot-aankoop-vensters. ChatGPT-gebruikers neigen ertoe op dezelfde dag te converteren; Perplexity-gebruikers nemen vaak drie tot vijf dagen; Gemini zit ertussenin.
- Omzetattributie. Geverifieerde IP-naar-bestelling-matching voor de schoonste gevallen, probabilistische matching voor de rest.
Hoe verwijzingsverkeer van LLMs te meten in Google Analytics (het eerlijke antwoord)
Het korte antwoord is: dat kan niet, niet volledig. UTM’s zijn aanwezig vanuit ChatGPT maar niet vanuit Gemini of Claude. Referrers zijn aanwezig vanuit desktop-browsers maar verwijderd op mobiele apps. AI Overviews verschijnen onder organische zoekopdrachten zonder scheidingscapaciteit. Je kunt een gedeeltelijk beeld bouwen door te filteren op utm_source=chatgpt.com en op de referrers chatgpt.com, claude.ai, perplexity.ai, gemini.google.com en copilot.microsoft.com, maar je kijkt dan naar ongeveer een kwart van het werkelijke verkeer.
Het eerlijke antwoord is om dit signaal server-side vast te leggen. De volledige attributiekaart, met elke apparaat-voor-apparaat-test die we uitvoerden, staat in LLM-verkeer is een blinde vlek in je analytics.
Mobiel is waar de LLM-attributie-gap het grootst is
Hier is het deel van de verwijzings-ondertelling dat het meest telt: het apparaat dat het grootste deel van je publiek gebruikt is ook het apparaat waar AI-attributie het moeilijkst duidelijk te zien is. Mobiel drijft 70 tot 90 procent van de consumentgerichte sitesessies, en het is waar de LLM-apps wonen. Op de platforms die we testten is mobiel het minst gevolgde oppervlak voor elke LLM die ertoe doet.
De structurele reden is dat mobiele LLM-apps uitgaande links renderen in geisoleerde WebViews, die de referrer verwijderen en de sessie loskoppelen van elke voorgaande browsercontext. iOS WebKit’s Intelligent Tracking Prevention verergert het probleem op iPhone, waar de WebView onderhevig is aan cookie-beperkingen, zelfs wanneer de conversie binnenin gebeurt.
Het resultaat is dat een alleen-verwijzings-weergave van LLM-verkeer er meestal uitziet als een desktop-weergave, ook al is het werkelijke publiek meestal mobiel. Cross-platform vergelijkingen getrokken uit GA4-getallen zijn gemakkelijker te interpreteren zodra die mobiele gap in aanmerking is genomen. De volledige apparaat-voor-apparaat matrix, inclusief de desktop-scenario’s, staat in LLM-verkeer is een blinde vlek in je analytics.
KPI’s die ertoe doen
Voor een diepere blik op hoe dit past in het bredere kopertraject, zie AI is een onderzoeksengine, geen verkoopkanaal. De framing is belangrijk omdat door AI verwezen gebruikers vaak onderzoekers zijn in mid-funnel, en het beoordelen van het kanaal alleen op zelfde-sessie-conversie zal het ondergewaarderen.
Van signaal naar actie: hoe LLM-verkeersdata impact aansturen
Meting verdient zijn waarde alleen wanneer het tot actie leidt. Met de drie signalen samen gevolgd komen twee aanbevelingspatronen betrouwbaar naar voren uit de cross-signal-data, plus een doorlopend log dat een team kan bijhouden van wat er is gewerkt.
Content versheid
De top training-gecrawlde URL’s over de afgelopen 30 dagen, gerangschikt op ophaalfrequentie. De aanbeveling is direct: houd ze nauwkeurig, omdat modellen leren wat er nu op de pagina staat en je merk dienovereenkomstig zullen vertegenwoordigen aan toekomstige gebruikers. Een verouderde pagina waarop OpenAI ’s nachts traint is een verouderde pagina die ChatGPT verkeerd zal vertegenwoordigen voor de volgende trainingscyclus.
Actie: bekijk elke top-gecrawlde pagina in een terugkerende cadans, repareer alles wat verouderd is en houd een record bij van wat er is herzien en wanneer, zodat versheid een gevolgde workflow wordt in plaats van een eenmalige audit.
Pagina’s gecrawld maar niet geciteerd
Pagina’s die AI-trainingsbots ophalen maar die nul citaten en nul verwijzingen hebben geproduceerd in hetzelfde venster. Verdeeld in producten en categorieen voor e-commerce, in artikeltypen voor uitgevers. Dit is de citaat-gap, en het is meestal het patroon met de hoogste hefboomwerking om op te handelen.
De bots hebben de pagina gelezen. Het model heeft niet gekozen om het te citeren. De fix is bijna altijd dezelfde familie van wijzigingen: duidelijkere titels, betere beschrijvingen, FAQ-stijl tekst en JSON-LD die het product, het publiek en het antwoord op de voor de hand liggende vraag noemt.
Actie: herschrijf de pagina om citeerbaarder te zijn, volg vervolgens het citaatsignaal op die URL gedurende de volgende twee weken om de fix te verifieren.
De cross-signal actie-kaart
Zodra je alle drie de signalen hebt vastgelegd, komen er vier patronen naar voren en elk wijst op specifiek werk. Elke cel toont of dat signaal actief is (de pagina verschijnt daar), ontbreekt (het signaal is afwezig), zwak (het signaal is er maar onderpresterend) of n.v.t. wanneer de vraag niet van toepassing is voor het patroon.
Dit is wat we bedoelen met “LLM-verkeersdata sturen actie aan”. Wanneer de drie signalen naast elkaar liggen, wijst elk patroon op een specifiek soort werk, zodat een team een wijziging kan prioriteren om deze week te leveren en de impact volgende week te controleren.
Hoe je je content-dekking voor training en citaten kunt benchmarken
In het Google Search-tijdperk was indexering de fundamentele gezondheidsmetriek. Voordat een pagina kon ranken, klikken kon verdienen of kon converteren, moest het in de index staan. Dekking is dezelfde metriek voor het LLM-tijdperk, en het verdient om als eigen ding gevolgd te worden, niet gevouwen in een van de signalen.
Dekking is het percentage van de content die voor jou belangrijk is dat AI daadwerkelijk leest en gebruikt. Het is het dichtst bij een noordster-getal voor het AI-kanaal omdat het upstream zit van elk ander signaal. Als een model je pagina niet heeft opgenomen, kan AI het niet citeren. Als een pagina nooit wordt geciteerd, kan AI geen gebruiker ernaar sturen. Dekking is de poort die beslist of de rest van de funnel zelfs mogelijk is.
Dekking als eigen metriek behandelen, los van een van de drie signalen, is wat het AI-kanaal meetbaar maakt op een manier die teams die bekend zijn met organisch zoeken al begrijpen. De vraag verschuift van “worden we gecrawld” naar “bereikt genoeg van de juiste content het antwoord”. Dekking splitst zich netjes langs de eerste twee signalen.
Trainingsdekking-benchmark
Definieer eerst je content-universum van record. Voor een e-commerce-team is dit typisch alle actieve productpagina’s, alle categoriepagina’s en alle evergreen gidsen. Voor een uitgever is het het artikelarchief plus referentie- en onderwerpslandingspagina’s. Het universum is de noemer.
Vraag dan: in de afgelopen 30 dagen, welk percentage van die URL’s werd ten minste eenmaal opgehaald door een geverifieerde trainingscrawler van een van de grote AI-engines? Dat is je 30-dagen trainingsdekking. Een gezonde site met redelijke interne linking en een schone sitemap zou 90 procent of hoger moeten draaien. Daaronder heb je een ontdekbaarheidsprobleem: de bots kunnen een betekenisvol deel van je inventaris niet vinden of keren er niet naar terug.
Splits dan hetzelfde getal per AI-engine. Per-engine dekking is waar de hefboom leeft. OpenAI kan 95 procent dekken terwijl Google 40 procent dekt en Anthropic 70 procent dekt. Die spreiding vertelt je precies waar te investeren in oppervlak-specifieke toegang (robots.txt-review, sitemap-indiening, gestructureerde data-verbeteringen) en welke modellen je merk nauwkeurig versus slecht zullen vertegenwoordigen wanneer een toekomstige gebruiker vraagt.
Citaatdekking-benchmark
Citaatdekking wordt op dezelfde manier gebouwd maar tegen een nauwere noemer: je referentiekwaliteit-content, de pagina’s die je zou verwachten dat AI citeert als het je site correct begreep. Voor een e-commerce-team is dit typisch de gidsen, vergelijkingen en FAQ-stijl content, niet de productpagina’s zelf. Voor een uitgever zijn het je evergreen en referentie-artikelen.
Vraag: in de afgelopen 30 dagen, welk percentage van die referentie-URL’s ontving ten minste een live fetch van ChatGPT, Claude of Perplexity? Dat is je 30-dagen citaatdekking. Een site waarvan de referentie-content goed gestructureerd, goed getiteld en JSON-LD-verrijkt is, zou 60 tot 80 procent moeten draaien. Onder 40 procent is een citeerbaarheidsprobleem, bijna altijd oplosbaar met duidelijkere titels, betere beschrijvingen, FAQ-stijl tekst en meer gestructureerde data.
Splits dan per assistent. ChatGPT zal het volume domineren op de meeste sites; Claude zal ondervertegenwoordigd zijn in elke tool die niet-verifieerbaar bot-verkeer niet correct verwerkt; Perplexity zal over-indexeren op gestructureerde product- en referentie-content.
Hoe gezond eruit ziet over het geheel
Exacte drempels varieren per archiefdiepte, content-mix en publiek, maar het patroon van een gezond profiel is consistent genoeg om te publiceren:
- Trainingsdekking van je top 100 pagina’s: op of bijna 100 procent in een venster van 30 dagen, met ten minste drie tot vier AI-engines die actief ophalen.
- Citaatdekking van je referentiekwaliteit-content: 60 tot 80 procent in een venster van 30 dagen. Onder 40 procent wijst op citeerbaarheidsgaten in titels, beschrijvingen en gestructureerde data.
- Top citaatpagina’s: evergreen, diepgaande, referentiekwaliteit-content. De homepage zou niet in de top 20 moeten staan.
- Citaatconcentratie: 60 tot 80 procent van alle citaten op je top 30 pagina’s is normaal. Concentratie op alleen je top 5 betekent dat je referentie-oppervlak te smal is. Als je getallen scherp afwijken van dit patroon, is de diagnose meestal gestructureerde-data-gaten, content die het model niet als citeerbaar beschouwt of een dekkingsprobleem dat interne linking en sitemaps kunnen oplossen.
Voor de fundamentele primer over AI-zichtbaarheid voorafgaand aan een van deze, zie AI-zichtbaarheid begrijpen. Voor het zeven-KPI-framework dat netjes mapt op het drie-signaal-model, zie AI-prestatiemetrics: zeven KPI’s die elk merk moet volgen.
Stop met schatten, begin met activeren
Wanneer LLM-verkeer wordt gerapporteerd als een enkel getal, gaat veel nuttige context verloren. Sterke content kan rustiger lijken dan het werkelijk is omdat het grootste deel van zijn impact buiten het analytics-tool valt. Veelbelovende prestaties zijn moeilijk terug te traceren naar de upstream-activiteit die ze verdiende. Teams leunen uiteindelijk op indirecte signalen omdat de directe nog niet zichtbaar zijn.
Drie signalen op je site vullen dat beeld in. Training toont je wat AI absorbeert over je merk en content. Citaten tonen je welke pagina’s AI bereikt om echte vragen in real-time te beantwoorden. Verwijzingen tonen je de hoge-intentie gebruikers die AI doorstuurt. Upstream van alle drie zit dekking, het LLM-tijdperk-equivalent van indexering, en de poort die beslist of de rest van de funnel zelfs mogelijk is.
Samen gelezen geven de drie signalen een team een duidelijk cross-signal patroon om elke week op te handelen. AI-supersterren zijn pagina’s om te beschermen, citaat-gaps zijn pagina’s om te herschrijven, klik-problemen wijzen op laadsnelheid en snippet-framing, en dekkings-gaps wijzen op ontdekbaarheid. Off-site is Share of Voice een nuttige richtinggevende benchmark voor de gesprekken die plaatsvinden in AI-antwoorden, maar voor het meten van werkelijke prestatie-impact is het on-site drie-signaal-model waar we geloven dat merken zich rond moeten orienteren naarmate ze investeren in AI-kanaalgroei.
Samen transformeren ze het AI-kanaal van iets om in te schatten naar iets waarop je team kan plannen, meten en handelen met vertrouwen.
Alle drie signalen in een dashboard
Het dashboard hieronder bundelt de drie on-site signalen in een enkele weergave, met content-dekking parallel gevolgd als upstream-poort. Training-crawls landen per pagina, citaties worden uitgesplitst per engine en referrals worden end-to-end toegewezen tot aan de omzet.