← All Articles

Monitoraggio del traffico LLM: i tre segnali (training, citazioni, referral)

I tre segnali del traffico LLM: crawl di training, citazioni in conversazione e referral di utenti reali, con la copertura dei contenuti come porta a monte

Cos’e davvero il traffico LLM

Il traffico LLM viene spesso discusso come un singolo numero, e quel framing lascia molto sul tavolo. Sul tuo sito, l’attivita AI in realta appare come tre segnali distinti che puoi misurare direttamente, ciascuno prodotto da un diverso tipo di comportamento AI e ciascuno che indica un lavoro diverso. Un quarto segnale, la quota di voce, viene misurato fuori sito. E una dimensione di prestazione meno affidabile, ma e l’approccio che la maggior parte dei team usa attualmente per la vista fuori sito. Mentre i team si concentrano sulla crescita del canale AI, crediamo che i brand debbano orientarsi attorno a questo modello a tre segnali per misurare le prestazioni.

3 segnali
Crawl di training, citazioni in conversazione e referral di utenti reali, ciascuno misurabile per conto proprio
WISLR AI Channel Analytics
Segnale 1 · Tempo di training
Training LLM
OpenAI, Anthropic, Google e Common Crawl recuperano le tue pagine per alimentare il training del modello. Nessun utente live. Il modello sta imparando cosa sapere sul tuo brand e sui tuoi contenuti.
Segnale 2 · Conversazione live
Citazioni in conversazione
ChatGPT, Claude e Perplexity recuperano la tua pagina nel mezzo della conversazione per rispondere a una domanda che qualcuno sta facendo proprio ora. Ogni recupero e un momento live di intenzione.
Segnale 3 · Alta intenzione
Utenti reali
Qualcuno clicca su una citazione di ChatGPT, Claude, Perplexity o Copilot e atterra sul tuo sito. Sono arrivati dopo aver ricercato la domanda, quindi convertono a tassi piu alti rispetto ad altri canali.

Ogni segnale vale la pena tracciare separatamente, ordinato in base a dove si trova l’utente quando ognuno si verifica: tempo di training prima che qualsiasi utente sia coinvolto, una conversazione live in cui un utente sta facendo una domanda proprio ora, e un click in cui un utente e sul tuo sito. Questo modello a tre segnali cattura come l’AI interagisce realmente con un sito, che e cio di cui editori e operatori di e-commerce hanno bisogno per prendere decisioni. Abbiamo costruito AI Channel Analytics attorno allo stesso modello.

Una volta che pensi in tre segnali invece di un singolo numero, le domande che i team fanno piu spesso, come monitorare il traffico LLM, cosa appartiene alla dashboard e quali numeri sono piu utili, diventano molto piu facili da rispondere.


Perche GA4 e altri strumenti di analisi lato client hanno difficolta con questo

Prima di entrare nei segnali, una breve parola su cosa gli strumenti di analisi esistenti possono e non possono mostrare. GA4 e lo strumento dominante e ha limiti ben noti quando si tratta di traffico AI. Gli stessi limiti si applicano a Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo e qualsiasi altro strumento che dipende da un tag JavaScript che si attiva in un browser reale. La ragione e architetturale piuttosto che configurabile, quindi provare uno strumento diverso tende a portarti nello stesso posto.

Abbiamo coperto il quadro completo per GA4 specificamente in Il traffico LLM e un punto cieco nella tua analisi, quindi ecco la versione breve. Ogni segnale interagisce diversamente con l’analisi lato client.

  • I crawl di training non sono visibili perche i bot non eseguono JavaScript. I recuperi di training di OpenAI, Anthropic e Google AI non attivano i tag lato client per progettazione. GA4, Adobe, Mixpanel, Amplitude, Heap e gli strumenti rispettosi della privacy come Plausible e Fathom condividono tutti questa lacuna perche nessuno di essi registra una richiesta a meno che un browser non esegua il loro tag.
  • Le citazioni in conversazione avvengono interamente fuori dal tuo sito. L’AI recupera la tua pagina lato server per conto di un utente e rende la risposta all’interno della chat. Nessun browser si apre, nessun evento di analisi si attiva, quindi questa attivita non emerge in nessuno strumento lato client.
  • I referral di utenti reali sono parzialmente visibili in ogni strumento lato client, ma normalmente sotto-contati di un fattore di 2,5x a 5x. Le app mobili LLM rendono i link in uscita in WebView isolate che rimuovono il referer. Gemini e Claude non passano alcun segnale di attribuzione sulla maggior parte delle piattaforme testate. Le panoramiche AI di Google sono raggruppate sotto la ricerca organica, il che le rende difficili da separare. Lo stesso raggruppamento appare allo stesso modo che il rapporto che stai leggendo sia in GA4, Adobe o un’alternativa rispettosa della privacy.
2,5 a 5x
Sotto-conteggio GA4 delle sessioni riferite da LLM rispetto alla verita di base lato server, basato su test pratici in scenari mobile e desktop.
Test dispositivo per dispositivo WISLR

La soluzione non e un tag migliore, una strategia UTM piu pulita o un passaggio a uno strumento diverso lato client. La soluzione e la cattura lato server al confine, classificata per user agent, intervallo IP verificato e DNS inverso, e cucita per superficie AI. Questo e l’unico modo per vedere tutti e tre i segnali contemporaneamente, ed e indipendente da qualunque strumento di analisi lato client tu mantenga in esecuzione per il resto del tuo traffico.


Segnale 1: Training LLM

Il training LLM e l’AI che legge il tuo brand e i tuoi contenuti per alimentare la prossima versione dei suoi modelli. I crawler di training di OpenAI, Anthropic, Google, Common Crawl e ByteDance recuperano le tue pagine secondo un calendario continuo, ingeriscono il contenuto e lo arrotolano nel prossimo ciclo di training. Questa e la base di ogni interazione successiva. Se un modello non ha assorbito la tua pagina, non puo citarti, non puo raccomandare il tuo prodotto e non puo inviarti un utente.

Questo e anche il segnale in cui GA4 e ogni altro strumento di analisi lato client hanno zero visibilita. I crawl di training sono visibili solo nei tuoi log delle richieste lato server.

I crawl di training AI sono ora a scala di motore di ricerca

Il contesto di volume che la maggior parte dei team perde: Il volume di crawl di training AI su un sito tipico ricco di contenuti ora rivaleggia con il volume di crawl dei principali motori di ricerca. I crawler di training di OpenAI, Anthropic, Google, Common Crawl e ByteDance insieme producono volumi di richieste dello stesso ordine di grandezza di Google Search e Bing combinati. Su molti siti, i recuperi di training AI superano gia i recuperi dei motori di ricerca in frequenza.

~1:1
Rapporto tra volume di crawl di training AI e volume di crawl dei principali motori di ricerca su un sito tipico ricco di contenuti. L'AI sta arrivando alla stessa intensita di Google Search negli ultimi vent'anni.
Log dei server clienti WISLR

Questo non e piu un segnale minore o di canale laterale. I crawler che decidono cosa gli strumenti AI sanno sul tuo brand stanno arrivando alla stessa intensita dei crawler che hanno deciso cosa Google Search sapeva sul tuo brand negli ultimi vent’anni.

Cosa guardare

Con il giusto tracciamento in atto, il segnale di training si scompone in diverse dimensioni che contano per l’azione:

  • Volume giornaliero per motore AI su finestre mobili di 30 giorni e all-time.
  • Copertura di training come percentuale delle pagine ad alto valore sul tuo sito, suddivisa per sezione.
  • Pagine piu recuperate con link in uscita, frequenza di aggiornamento e quali superfici AI le stanno tirando.
  • Riepilogo per tipo di pagina in modo da poter vedere a colpo d’occhio se l’AI sta leggendo le tue pagine prodotto, le tue pagine categoria, i tuoi articoli o tutti e tre.
  • Suddivisione per motore AI. OpenAI puo dominare mentre il training AI di Google e silenzioso; Anthropic puo restare al tuo blog mentre Common Crawl copre il catalogo.
  • Tipi di media. Questa e la dimensione che la maggior parte dei team dimentica. Di piu su questo successivamente.

I media come dati di training: oltre il corpo dell’articolo

La piu grande lacuna nel pensiero della maggior parte dei team e che il training non e solo testo. I bot AI recuperano anche le tue immagini, video e audio. Ognuno e una superficie di training separata e ognuno porta un valore di segnale diverso.

Con un tracciamento migliore in atto, puoi distinguere le pagine dai media non-pagina per vedere cosa ogni motore AI consuma effettivamente:

Tipo di contenuto Cosa viene assorbito Perche e importante
Pagine Testo del corpo, intestazioni, link interni, schema sulla pagina Di gran lunga la quota maggiore del volume di training sulla maggior parte dei siti.
Immagini Il file immagine stesso Influenza se i tuoi prodotti emergono nelle risposte visive. Il testo alternativo e le didascalie vengono assorbiti tramite il recupero della pagina, non il recupero dell'immagine.
Video Il file video stesso Sempre piu recuperato man mano che i modelli multimodali diventano comuni. Trascrizioni e sottotitoli vengono assorbiti tramite il recupero della pagina, non il recupero del video.
Audio Il file audio stesso Un punto cieco per la maggior parte degli editori; ricco materiale di training. Note dello show e trascrizioni vengono assorbite tramite il recupero della pagina, non il recupero dell'audio.

L’implicazione pratica: il tuo testo alternativo, le tue trascrizioni e il tuo schema sulla pagina non sono piu solo igiene SEO. Sono input di training. Piu sono chiari, piu accuratamente un modello rappresenta il tuo brand e i tuoi contenuti a un futuro utente. Il lato Shopify di questa storia, dove i feed di prodotto e i dati strutturati diventano la superficie di training, e trattato in Piano agentico Shopify: dati di prodotto oltre il tuo controllo.

KPI che contano

Traccia questo invece
Volume verificato di crawl di training per motore AI
Esempio
OpenAI248K Anthropic142K Google91K
Ultimi 30 giorni
Traccia questo invece
Frequenza effettiva di recupero sui tuoi URL principali
Esempio
/guides/wide-feet-running412 / set /products/widefeet-pro184 / set /guides/best-trail-runners96 / set
Traccia questo invece
Cadenza di re-crawl e percentuale di copertura per sezione
Esempio
/articles/ Copertura sezione94% Re-crawl ogni4 giorni /products/ Copertura sezione78% Re-crawl ogni11 giorni
Traccia questo invece
Prioritizzazione per tipo di pagina (quali sezioni l'AI legge di piu)
Esempio
Articoli48% di crawl Prodotti31% di crawl Categorie21% di crawl

La domanda giusta per il segnale di training non e “quanto siamo crawlati” ma “viene crawlato il contenuto giusto, abbastanza spesso, dai motori AI che contano.” La metodologia per passare dai log grezzi a quella domanda e in Comportamento del bot AI: una metodologia di analisi dei log.


Segnale 2: Citazioni in conversazione, lo strato in tempo reale

Le citazioni in conversazione sono l’AI che recupera la tua pagina nel mezzo della chat per rispondere alla domanda live di un utente. Questi sono i recuperi live di ChatGPT, Claude e Perplexity. Ogni recupero e, per definizione, un momento in cui qualcuno ha posto una domanda e il modello ha deciso che la tua pagina era la risposta migliore. Questo e il segnale ad alta intenzione dei tre segnali perche la domanda viene risposta proprio ora.

E anche il segnale che dimostra quale contenuto e davvero di qualita di riferimento dal punto di vista dell’AI. Il training ti dice cosa e stato assorbito. Le citazioni ti dicono cosa viene usato.

Cosa guardare

Il segnale di citazione si scompone lungo le stesse dimensioni del segnale di training, ma il significato di ognuno cambia:

  • Volume giornaliero dei recuperi live per assistente. Un picco su una pagina specifica spesso si correla con un ciclo di notizie topico o una nuova domanda di confronto ampiamente posta.
  • Copertura delle citazioni, la quota del tuo contenuto di qualita di riferimento che e stato recuperato almeno una volta nell’ultima finestra.
  • Pagine piu recuperate con l’assistente che le ha recuperate. Le sorprese qui sono la regola, non l’eccezione. Le pagine che l’AI cita sono raramente le pagine che ti aspetteresti.
  • Suddivisione per superficie AI. Diversi assistenti danno priorita a contenuti diversi. ChatGPT e Perplexity tendono a favorire contenuti strutturati di prodotto e riferimento; Claude tende a favorire la scrittura espositiva long-form.
  • Tipi di media. I recuperi di citazione live sono per lo piu pagine; immagini e video sono citati meno spesso ma stanno crescendo man mano che le risposte multimodali diventano comuni.

Perche questo segnale e unicamente prezioso

Una citazione live e quanto di piu vicino a un voto di fiducia che l’ecosistema AI produce. E il modello che dice, davanti a un utente reale, “questa pagina e la fonte giusta per questa domanda”. Se stessi tracciando un solo segnale, sarebbe questo.

Il problema e che nulla di tutto cio e visibile a GA4 o a qualsiasi strumento lato client, perche il recupero avviene lato server e l’utente non atterra mai sulla tua pagina. L’unico modo per vedere le citazioni e al confine.

Citazioni vs. quota di voce (SOV)

La quota di voce e l’alternativa fuori sito che la maggior parte dei team usa attualmente quando non puo vedere le citazioni lato server. E una misurazione della frequenza con cui il tuo brand emerge nelle risposte AI in un paniere di prompt rappresentativi. Una categoria crescente di strumenti, tra cui Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar e i moduli AI all’interno di Semrush e BrightEdge, interrogano ChatGPT, Claude, Gemini e Perplexity su larga scala, contano le menzioni del brand e riportano una quota relativa a un set competitivo.

E un segnale direzionale utile, ma la nostra preferenza per misurare le prestazioni del canale AI e il segnale di citazione sopra, perche cattura recuperi effettivi a livello di pagina dalla superficie che ha effettuato il recupero. SOV ha punti ciechi strutturali che le citazioni non hanno.

SOV e probabilistico, le citazioni sono osservate. I modelli AI danno risposte diverse allo stesso prompt a seconda delle impostazioni di temperatura, del contesto di conversazione e dell’ora del giorno. Esegui la stessa query due volte e puoi ottenere due diversi set di menzioni del brand. Gli strumenti SOV mitigano questo tramite campionamento e media, ma la volatilita sottostante e reale, e la precisione di qualsiasi singolo numero e inferiore a quanto suggerisce la maggior parte dei rapporti. I dati di citazione, al contrario, sono un log del server di recuperi effettivi: ognuno e accaduto, e ognuno e contabile.

SOV campiona prompt; le citazioni sono ancorate a conversazioni reali. Uno strumento SOV esegue un paniere di prompt scelti dall’analista. Gli utenti reali fanno domande diverse, in modi diversi, con contesto precedente diverso. Il campione puo o non puo corrispondere a cio che i tuoi clienti effettivamente chiedono, e la maggior parte degli strumenti non rende trasparente il loro set di prompt. Una citazione live, per definizione, e venuta da un utente reale che pone una domanda reale, quindi non c’e bias di campionamento.

I modelli cambiano. Ogni nuova versione del modello, modifica del prompt di sistema o cambiamento di recupero sposta cio che viene citato. Una cifra SOV misurata rispetto ai modelli del trimestre scorso e una misurazione diversa da una presa rispetto a quelli di questo trimestre, e la maggior parte degli strumenti non e trasparente sulla versione del modello nei loro rapporti. L’attivita di citazione si adegua in tempo reale perche viene catturata direttamente dal recupero, senza strato di inferenza in mezzo.

Il modo piu pulito per usare SOV e accanto al segnale di citazione, non come sostituto. SOV e un benchmark direzionale fuori sito di quanto spesso il tuo brand emerge nelle risposte. Le citazioni sono il record verificato sul sito di quali pagine l’AI ha effettivamente usato per produrle. Usate insieme, la simulazione fuori sito e la verita sul sito danno un quadro piu completo di entrambe da sole.

KPI che contano

Traccia questo invece
Recuperi di citazione verificati per pagina, per assistente
Esempio
Pagina /guides/wide-feet
ChatGPT184 Perplexity92
Ultimi 30 giorni
Traccia questo invece
Frequenza di citazione sulle tue principali pagine di riferimento
Esempio
/guides/agentic-commerce-10162 / set /guides/wide-feet-running38 / set /compare/perplexity-vs-chatgpt26 / set
Traccia questo invece
Quota di citazione per assistente, trend settimana su settimana
Esempio
ChatGPT62%+4 pti Perplexity24%-1 pto Claude14%stabile
Settimana su settimana
Traccia questo invece
Concentrazione di citazioni per tipo di pagina
Esempio
Guide di confronto52% delle citazioni Articoli28% delle citazioni Recensioni14% delle citazioni Altro6% delle citazioni

Un pattern tipico, tratto da implementazioni reali di editori ed e-commerce: un piccolo set di pagine evergreen produce la maggior parte delle citazioni, mentre la homepage entra raramente nelle top 50. Se il modello ha deciso che la tua guida di confronto approfondita e la risposta giusta a una domanda, recuperera quella pagina centinaia di volte a settimana e non la tua homepage affatto. Quello e il segnale operativo che vuoi.


Segnale 3: Utenti reali, il referral ad alta intenzione

I motori AI sono motori di ricerca, non canali di interruzione. Un utente che clicca su una citazione in ChatGPT, Claude, Perplexity o Copilot ha gia posto la sua domanda, valutato la risposta e scelto la tua pagina come passo successivo. Quando atterrano sul tuo sito, sono piu avanti nella curva di considerazione di un utente da qualsiasi canale che li ha interrotti. Nelle nostre implementazioni, questo si traduce in tassi di conversione piu alti e finestre di considerazione piu brevi rispetto a social, display e spesso anche ricerca a pagamento. Il framing e importante perche gli utenti riferiti dall’AI sono pre-qualificati al loro arrivo; per il contesto piu ampio del percorso dell’acquirente, vedi L’AI e un motore di ricerca, non un canale di vendita.

Questo e anche l’unico segnale che uno strumento di analisi tradizionale puo vedere affatto, e il segnale a cui la maggior parte dei team ricorre quando sente “traffico LLM”. E anche il segnale in cui il gap WebView e il gap senza referrer di Gemini/Claude fanno sotto-riportare GA4 di un fattore di 2,5 a 5, quindi l’alta intenzione e piu non contata di qualsiasi altro canale sul tuo sito.

Cosa guardare

  • Sessioni per assistente sorgente, classificate lato server piuttosto che affidarsi alle intestazioni del referrer.
  • Distribuzione della pagina di destinazione. Gli utenti riferiti dall’AI tendono ad atterrare su pagine profonde, non sulla homepage.
  • Tasso di conversione per sorgente, confrontato con la tua baseline organica. Nelle nostre implementazioni, la conversione riferita dall’AI tipicamente corre piu alta del social per sessione.
  • Finestre di tempo all’acquisto. Gli utenti ChatGPT tendono a convertire lo stesso giorno; gli utenti Perplexity spesso impiegano da tre a cinque giorni; Gemini si trova nel mezzo.
  • Attribuzione delle entrate. Corrispondenza IP-a-ordine verificata per i casi piu puliti, corrispondenza probabilistica per il resto.

Come misurare il traffico di referral degli LLM in Google Analytics (la risposta onesta)

La risposta breve e: non puoi, completamente. Gli UTM sono presenti da ChatGPT ma non da Gemini o Claude. I referrer sono presenti dai browser desktop ma rimossi sulle app mobili. Le panoramiche AI appaiono sotto la ricerca organica senza capacita di separazione. Puoi costruire un quadro parziale filtrando su utm_source=chatgpt.com e sui referrer chatgpt.com, claude.ai, perplexity.ai, gemini.google.com e copilot.microsoft.com, ma starai guardando circa un quarto del traffico effettivo.

La risposta onesta e catturare questo segnale lato server. La mappa di attribuzione completa, con ogni test dispositivo per dispositivo che abbiamo eseguito, e in Il traffico LLM e un punto cieco nella tua analisi.

Mobile e dove il gap di attribuzione LLM e piu grande

Ecco la parte del sotto-conteggio dei referral che conta di piu: il dispositivo che la maggior parte del tuo pubblico usa e anche il dispositivo dove l’attribuzione AI e piu difficile da vedere chiaramente. Il mobile guida il 70-90 percento delle sessioni di siti consumer, ed e dove vivono le app LLM. Sulle piattaforme che abbiamo testato, il mobile e la superficie meno tracciata per ogni LLM che conta.

Piattaforma Superficie UTM Referrer Tracciabile in GA4
ChatGPT App mobile Si
utm_source=chatgpt.com
No Parziale
ChatGPT Browser mobile Si Si Si
Gemini App mobile No No No
Gemini Browser mobile No No No
Claude App mobile No No No
Claude Browser mobile No No No

La ragione strutturale e che le app mobili LLM rendono i link in uscita in WebView isolate, che rimuovono il referrer e staccano la sessione da qualsiasi contesto browser precedente. La prevenzione intelligente del tracciamento di iOS WebKit aggrava il problema su iPhone, dove la WebView e soggetta a restrizioni sui cookie anche quando la conversione avviene al suo interno.

Il risultato e che una vista solo referral del traffico LLM finisce per sembrare per lo piu una vista desktop, anche se il pubblico effettivo e per lo piu mobile. I confronti tra piattaforme tratti dai numeri GA4 sono piu facili da interpretare una volta tenuto conto di quel gap mobile. La matrice completa dispositivo per dispositivo, inclusi gli scenari desktop, e in Il traffico LLM e un punto cieco nella tua analisi.

KPI che contano

Traccia questo invece
Conteggio sessioni riferite dall'AI lato server
Esempio
Cattura lato server6.420 sessioni Stesso periodo in GA41.840 sessioni
Ultimi 30 giorni
Traccia questo invece
Tasso di conversione rispetto alla tua baseline organica
Esempio
AI4,8% Organico2,9% Social1,6%
Tasso di conversione per sessione
Traccia questo invece
Distribuzione del tempo all'acquisto per sorgente
Esempio
ChatGPTStesso giorno Gemini2 a 3 giorni Perplexity4 a 5 giorni
Traccia questo invece
Entrate per sessione, per assistente
Esempio
ChatGPT$4,20 Perplexity$7,10 Gemini$3,40
Entrate per sessione

Per uno sguardo piu approfondito su come questo si inserisce nel piu ampio percorso dell’acquirente, vedi L’AI e un motore di ricerca, non un canale di vendita. Il framing e importante perche gli utenti riferiti dall’AI sono spesso ricercatori a meta funnel, e giudicare il canale solo sulla conversione della stessa sessione lo sottovalutera.


Dal segnale all’azione: come i dati di traffico LLM guidano l’impatto

La misurazione si guadagna il suo valore solo quando porta all’azione. Con i tre segnali tracciati insieme, due pattern di raccomandazione emergono in modo affidabile dai dati cross-segnale, piu un log continuo che un team puo tenere di cio su cui si e lavorato.

Freschezza dei contenuti

Gli URL principali crawlati per il training negli ultimi 30 giorni, classificati per frequenza di recupero. La raccomandazione e diretta: tenerli accurati, perche i modelli impareranno qualunque cosa sia sulla pagina proprio ora e rappresenteranno il tuo brand di conseguenza ai futuri utenti. Una pagina obsoleta su cui OpenAI sta facendo training di notte e una pagina obsoleta che ChatGPT rappresentera male per il prossimo ciclo di training.

Azione: rivedi ogni pagina principalmente crawlata in una cadenza ricorrente, correggi qualsiasi cosa obsoleta e mantieni un record di cio che e stato rivisto e quando, in modo che la freschezza diventi un workflow tracciato piuttosto che un audit una tantum.

Pagine crawlate ma non citate

Pagine che i bot di training AI stanno recuperando ma che hanno prodotto zero citazioni e zero referral nella stessa finestra. Divise in prodotti e categorie per l’e-commerce, in tipi di articolo per gli editori. Questo e il gap di citazione, ed e di solito il pattern a piu alta leva su cui agire.

I bot hanno letto la pagina. Il modello non ha scelto di citarla. La correzione e quasi sempre la stessa famiglia di cambiamenti: titoli piu chiari, descrizioni migliori, testo in stile FAQ e JSON-LD che nomina il prodotto, il pubblico e la risposta alla domanda ovvia.

Azione: riscrivi la pagina per renderla piu citabile, poi traccia il segnale di citazione su quell’URL nelle prossime due settimane per verificare la correzione.

La mappa di azione cross-segnale

Una volta che hai tutti e tre i segnali catturati, emergono quattro pattern e ognuno indica un lavoro specifico. Ogni cella mostra se quel segnale e attivo (la pagina sta apparendo li), mancante (il segnale e assente), debole (il segnale e li ma sotto-performante) o n/d quando la domanda non si applica al pattern.

Training Citazioni Referral Pattern Azione
Attivo Attivo Attivo Superstar AI Proteggi la pagina. Mantieni titolo e copy stabili, monitora la deriva, blocca il JSON-LD.
Attivo Mancante Mancante Gap di citazione Riscrivi per il consumo AI: titoli piu chiari, descrizioni migliori, testo in stile FAQ, JSON-LD piu ricco.
Attivo Attivo Debole Problema di click Il framing della citazione o il caricamento della pagina sta perdendo l'utente. Audita velocita di pagina, chiarezza dell'hero e snippet che l'AI sta citando.
Mancante n/d n/d Gap di copertura Correggi la rilevabilita: robots.txt, sitemap, link interni e controlli di accesso per motore.

Questo e cio che intendiamo per “i dati di traffico LLM guidano l’azione”. Quando i tre segnali si trovano fianco a fianco, ogni pattern indica un tipo specifico di lavoro, in modo che un team possa dare priorita a un cambiamento da spedire questa settimana e controllare l’impatto la prossima settimana.


Come fare benchmarking della copertura dei tuoi contenuti per training e citazioni

Nell’era di Google Search, l’indicizzazione era la metrica di salute fondamentale. Prima che una pagina potesse classificarsi, guadagnare click o convertire, doveva essere nell’indice. La copertura e la stessa metrica per l’era LLM, e merita di essere tracciata come la sua propria cosa, non piegata in nessun singolo segnale.

Il confronto della stella polare
Era di Google Search
Era LLM
Indicizzazione (porta a monte)
Copertura (porta a monte)
Ranking
Citazioni
Click
Referral

La copertura e la percentuale dei contenuti che ti interessano che l’AI sta effettivamente leggendo e usando. E la cosa piu vicina a un numero stella polare per il canale AI perche si colloca a monte di ogni altro segnale. Se un modello non ha assorbito la tua pagina, l’AI non puo citarla. Se una pagina non viene mai citata, l’AI non puo inviare un utente a essa. La copertura e la porta che decide se il resto del funnel e anche possibile.

Trattare la copertura come la sua propria metrica, distinta da uno qualsiasi dei tre segnali, e cio che rende il canale AI misurabile in un modo che i team familiari con la ricerca organica gia capiscono. La domanda passa da “siamo crawlati” a “abbastanza del contenuto giusto sta raggiungendo la risposta”. La copertura si divide nettamente lungo i primi due segnali.

Benchmark di copertura training

Definisci prima il tuo universo di contenuti di riferimento. Per un team e-commerce questo e tipicamente tutte le pagine prodotto attive, tutte le pagine categoria e tutte le guide evergreen. Per un editore e l’archivio di articoli piu le pagine di destinazione di riferimento e di argomento. L’universo e il denominatore.

Poi chiedi: negli ultimi 30 giorni, quale percentuale di quegli URL e stata recuperata almeno una volta da un crawler di training verificato di uno qualsiasi dei principali motori AI? Questa e la tua copertura training a 30 giorni. Un sito sano con link interni ragionevoli e una sitemap pulita dovrebbe correre al 90 percento o piu. Sotto, hai un problema di rilevabilita: i bot non possono trovare o non tornano a una porzione significativa del tuo inventario.

Poi suddividi lo stesso numero per motore AI. La copertura per motore e dove vive la leva. OpenAI potrebbe coprire il 95 percento mentre Google copre il 40 percento e Anthropic copre il 70 percento. Quella diffusione ti dice esattamente dove investire in accesso specifico per superficie (revisione robots.txt, invio sitemap, miglioramenti dei dati strutturati) e quali modelli rappresenteranno il tuo brand accuratamente o male quando un futuro utente chiedera.

Benchmark di copertura citazioni

La copertura delle citazioni si costruisce allo stesso modo ma contro un denominatore piu stretto: il tuo contenuto di qualita di riferimento, le pagine che ti aspetteresti che l’AI citasse se capisse correttamente il tuo sito. Per un team e-commerce questo e tipicamente le guide, i confronti e i contenuti in stile FAQ, non le pagine prodotto stesse. Per un editore sono i tuoi articoli evergreen e di riferimento.

Chiedi: negli ultimi 30 giorni, quale percentuale di quegli URL di riferimento ha ricevuto almeno un recupero live da ChatGPT, Claude o Perplexity? Questa e la tua copertura citazioni a 30 giorni. Un sito il cui contenuto di riferimento e ben strutturato, ben titolato e arricchito in JSON-LD dovrebbe correre al 60-80 percento. Sotto il 40 percento e un problema di citabilita, quasi sempre risolvibile con titoli piu chiari, descrizioni migliori, testo in stile FAQ e piu dati strutturati.

Poi suddividi per assistente. ChatGPT dominera il volume sulla maggior parte dei siti; Claude sara sotto-rappresentato in qualsiasi strumento che non gestisce correttamente il traffico di bot non verificabile; Perplexity sara sovra-indicizzato sui contenuti strutturati di prodotto e riferimento.

Come appare la salute complessivamente

Le soglie esatte variano per profondita dell’archivio, mix di contenuti e pubblico, ma il pattern di un profilo sano e abbastanza coerente da pubblicare:

  • Copertura training delle tue prime 100 pagine: a o vicino al 100 percento su una finestra di 30 giorni, con almeno tre o quattro motori AI che recuperano attivamente.
  • Copertura citazioni del tuo contenuto di qualita di riferimento: 60-80 percento su una finestra di 30 giorni. Sotto il 40 percento indica gap di citabilita in titoli, descrizioni e dati strutturati.
  • Pagine di citazione principali: contenuto evergreen, approfondito, di qualita di riferimento. La homepage non dovrebbe essere nelle prime 20.
  • Concentrazione di citazioni: 60-80 percento di tutte le citazioni sulle tue prime 30 pagine e normale. Concentrazione solo sulle prime 5 significa che la tua superficie di riferimento e troppo stretta. Se i tuoi numeri divergono nettamente da questo pattern, la diagnosi e di solito gap nei dati strutturati, contenuto che il modello non considera citabile o un problema di copertura che link interni e sitemap possono risolvere.

Per il primer fondamentale sulla visibilita AI prima di qualsiasi di questo, vedi Capire la visibilita AI. Per il framework a sette KPI che si mappa pulitamente sul modello a tre segnali, vedi Metriche di prestazione AI: sette KPI che ogni brand dovrebbe tracciare.


Smetti di stimare, inizia ad attivare

Quando il traffico LLM viene riportato come un singolo numero, molto contesto utile va perso. I contenuti forti possono sembrare piu silenziosi di quanto siano realmente perche la maggior parte del loro impatto cade fuori dallo strumento di analisi. La performance promettente e difficile da risalire all’attivita a monte che l’ha guadagnata. I team finiscono per appoggiarsi a segnali indiretti perche quelli diretti non sono ancora visibili.

Tre segnali sul tuo sito riempiono quel quadro. Il training ti mostra cio che l’AI sta assorbendo sul tuo brand e sui tuoi contenuti. Le citazioni ti mostrano quali pagine l’AI sta raggiungendo per rispondere a domande reali in tempo reale. I referral ti mostrano gli utenti ad alta intenzione che l’AI invia attraverso. A monte di tutti e tre c’e la copertura, l’equivalente dell’era LLM dell’indicizzazione, e la porta che decide se il resto del funnel e anche possibile.

Letti insieme, i tre segnali danno a un team un chiaro pattern cross-segnale su cui agire ogni settimana. Le superstar AI sono pagine da proteggere, i gap di citazione sono pagine da riscrivere, i problemi di click indicano la velocita di caricamento e il framing dello snippet, e i gap di copertura indicano la rilevabilita. Fuori sito, la quota di voce e un benchmark direzionale utile per le conversazioni che avvengono nelle risposte AI, ma per misurare l’impatto reale delle prestazioni, il modello a tre segnali sul sito e cio attorno a cui crediamo che i brand debbano orientarsi mentre investono nella crescita del canale AI.

Insieme, trasformano il canale AI da qualcosa da stimare in qualcosa che il tuo team puo pianificare, misurare e su cui agire con fiducia.

Configura AI Channel Analytics

Tutti e tre i segnali in un’unica dashboard

La dashboard qui sotto raccoglie i tre segnali on-site in un’unica vista, con la copertura dei contenuti tracciata accanto come gate upstream. I crawl di training arrivano per pagina, le citazioni sono suddivise per motore e i referral vengono attribuiti end-to-end fino al fatturato.

Vedi la demo della dashboard

Domande frequenti

Qual e la differenza tra i crawl di training AI e i recuperi di citazione AI?

I crawl di training avvengono in background e alimentano i dati di addestramento del modello. Motori AI come OpenAI, Anthropic, Google e Common Crawl li eseguono secondo un calendario. I recuperi di citazione avvengono in tempo reale, quando un utente fa una domanda e un assistente AI recupera una pagina per conto dell'utente per rispondere. Gli agenti da cercare nei tuoi log sono ChatGPT-User, Claude-User e Perplexity-User. Il training plasma cio che l'AI sa sul tuo brand; le citazioni mostrano cio che l'AI sta usando attivamente per rispondere alle domande proprio ora.

Come faccio a sapere se i miei contenuti sono citati da ChatGPT, Claude o Perplexity?

Il modo completo e catturare i log delle richieste lato server al confine e classificarli per user agent e intervallo IP verificato. ChatGPT-User, Claude-User e Perplexity-User si identificano nella richiesta, quindi la cattura lato server ti da un record per pagina e per assistente di quando ogni AI ha recuperato una pagina per rispondere a una domanda live. Gli strumenti di analisi lato client come GA4, Adobe, Mixpanel, Amplitude, Heap, Plausible, Fathom e Matomo non possono vedere questo segnale perche il recupero non apre mai un browser e non attiva mai un tag JavaScript.

Cos'e la copertura dei contenuti per gli LLM e perche e importante?

La copertura dei contenuti e la percentuale dei contenuti che ti interessano che i motori AI stanno effettivamente leggendo e usando. Funziona come l'indicizzazione per Google Search: si colloca a monte di ogni altro segnale. Se l'AI non ha assorbito la tua pagina, non puo citarla. Se non ha citato la pagina, non puo inviare un utente a essa. La copertura e la metrica di salute fondamentale per la misurazione del canale AI e cio che si avvicina di piu a un numero stella polare per il canale AI.

Cos'e la quota di voce nella ricerca AI e come si confronta con il tracciamento delle citazioni?

La quota di voce e una misurazione fuori sito della frequenza con cui il tuo brand appare nelle risposte generate dall'AI in un paniere campione di prompt. Strumenti come Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar e i moduli AI all'interno di Semrush e BrightEdge interrogano i motori AI su larga scala e riportano una quota relativa. E utile per il benchmarking competitivo ma probabilistica e incompleta perche le risposte AI non sono deterministiche e il campione di prompt e scelto dall'analista. Il tracciamento delle citazioni, al contrario, e il record verificato lato server di quali pagine l'AI ha effettivamente recuperato per rispondere a domande reali. Usa la quota di voce per il benchmarking direzionale e le citazioni per la misurazione delle prestazioni.

Perche Google Analytics 4 sotto-riporta il traffico di referral AI?

GA4 normalmente sotto-riporta le sessioni riferite dall'AI di un fattore di 2,5 a 5. La causa e strutturale piuttosto che configurabile. Le app mobili LLM rendono i link in uscita in WebView isolate che rimuovono il referer. Gemini e Claude non passano alcun segnale di attribuzione sulla maggior parte delle piattaforme testate. Le panoramiche AI di Google sono raggruppate sotto la ricerca organica senza modo di separarle. Le stesse lacune si applicano a qualsiasi altro strumento di analisi lato client, perche il problema e il modello di misurazione tramite tag JavaScript stesso, non lo strumento.

Come si comportano gli utenti riferiti dall'AI in modo diverso dal traffico organico o sociale?

Gli utenti riferiti dall'AI tendono a convertire a tassi per sessione piu alti dei social e spesso piu alti dell'organico una volta che le panoramiche AI sono separate dall'organico. Arrivano dopo aver ricercato la domanda con l'AI, valutato la risposta e scelto la tua pagina come passo successivo, quindi sono piu avanti nella curva di considerazione rispetto agli utenti dei canali che li hanno interrotti. Il tempo all'acquisto varia per motore AI. Gli utenti ChatGPT tendono a convertire lo stesso giorno, gli utenti Gemini impiegano piu giorni, gli utenti Perplexity spesso impiegano da tre a cinque giorni. Accorciare la finestra di attribuzione per tutti loro sotto-riporta il canale.

Da dove inizio quando la misurazione del canale AI e nuova per il mio team?

Inizia con la copertura dei contenuti. Conferma che i principali motori AI, OpenAI, Anthropic, Google, Perplexity e Common Crawl, possono raggiungere e stanno leggendo attivamente i contenuti che contano. Una volta che il quadro a monte e chiaro, aggiungi il tracciamento delle citazioni per vedere quali pagine l'AI sta effettivamente usando per rispondere alle domande. Aggiungi l'attribuzione del referral per ultima, perche un numero di referral senza contesto di copertura e citazione e impossibile da agire. La copertura e la porta su cui ogni altro segnale si appoggia, e iniziare li costruisce una base su cui il resto del framework puo crescere.