Monitoraggio del traffico LLM: i tre segnali (training, citazioni, referral)
Cos’e davvero il traffico LLM
Il traffico LLM viene spesso discusso come un singolo numero, e quel framing lascia molto sul tavolo. Sul tuo sito, l’attivita AI in realta appare come tre segnali distinti che puoi misurare direttamente, ciascuno prodotto da un diverso tipo di comportamento AI e ciascuno che indica un lavoro diverso. Un quarto segnale, la quota di voce, viene misurato fuori sito. E una dimensione di prestazione meno affidabile, ma e l’approccio che la maggior parte dei team usa attualmente per la vista fuori sito. Mentre i team si concentrano sulla crescita del canale AI, crediamo che i brand debbano orientarsi attorno a questo modello a tre segnali per misurare le prestazioni.
Ogni segnale vale la pena tracciare separatamente, ordinato in base a dove si trova l’utente quando ognuno si verifica: tempo di training prima che qualsiasi utente sia coinvolto, una conversazione live in cui un utente sta facendo una domanda proprio ora, e un click in cui un utente e sul tuo sito. Questo modello a tre segnali cattura come l’AI interagisce realmente con un sito, che e cio di cui editori e operatori di e-commerce hanno bisogno per prendere decisioni. Abbiamo costruito AI Channel Analytics attorno allo stesso modello.
Una volta che pensi in tre segnali invece di un singolo numero, le domande che i team fanno piu spesso, come monitorare il traffico LLM, cosa appartiene alla dashboard e quali numeri sono piu utili, diventano molto piu facili da rispondere.
Perche GA4 e altri strumenti di analisi lato client hanno difficolta con questo
Prima di entrare nei segnali, una breve parola su cosa gli strumenti di analisi esistenti possono e non possono mostrare. GA4 e lo strumento dominante e ha limiti ben noti quando si tratta di traffico AI. Gli stessi limiti si applicano a Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo e qualsiasi altro strumento che dipende da un tag JavaScript che si attiva in un browser reale. La ragione e architetturale piuttosto che configurabile, quindi provare uno strumento diverso tende a portarti nello stesso posto.
Abbiamo coperto il quadro completo per GA4 specificamente in Il traffico LLM e un punto cieco nella tua analisi, quindi ecco la versione breve. Ogni segnale interagisce diversamente con l’analisi lato client.
- I crawl di training non sono visibili perche i bot non eseguono JavaScript. I recuperi di training di OpenAI, Anthropic e Google AI non attivano i tag lato client per progettazione. GA4, Adobe, Mixpanel, Amplitude, Heap e gli strumenti rispettosi della privacy come Plausible e Fathom condividono tutti questa lacuna perche nessuno di essi registra una richiesta a meno che un browser non esegua il loro tag.
- Le citazioni in conversazione avvengono interamente fuori dal tuo sito. L’AI recupera la tua pagina lato server per conto di un utente e rende la risposta all’interno della chat. Nessun browser si apre, nessun evento di analisi si attiva, quindi questa attivita non emerge in nessuno strumento lato client.
- I referral di utenti reali sono parzialmente visibili in ogni strumento lato client, ma normalmente sotto-contati di un fattore di 2,5x a 5x. Le app mobili LLM rendono i link in uscita in WebView isolate che rimuovono il referer. Gemini e Claude non passano alcun segnale di attribuzione sulla maggior parte delle piattaforme testate. Le panoramiche AI di Google sono raggruppate sotto la ricerca organica, il che le rende difficili da separare. Lo stesso raggruppamento appare allo stesso modo che il rapporto che stai leggendo sia in GA4, Adobe o un’alternativa rispettosa della privacy.
La soluzione non e un tag migliore, una strategia UTM piu pulita o un passaggio a uno strumento diverso lato client. La soluzione e la cattura lato server al confine, classificata per user agent, intervallo IP verificato e DNS inverso, e cucita per superficie AI. Questo e l’unico modo per vedere tutti e tre i segnali contemporaneamente, ed e indipendente da qualunque strumento di analisi lato client tu mantenga in esecuzione per il resto del tuo traffico.
Segnale 1: Training LLM
Il training LLM e l’AI che legge il tuo brand e i tuoi contenuti per alimentare la prossima versione dei suoi modelli. I crawler di training di OpenAI, Anthropic, Google, Common Crawl e ByteDance recuperano le tue pagine secondo un calendario continuo, ingeriscono il contenuto e lo arrotolano nel prossimo ciclo di training. Questa e la base di ogni interazione successiva. Se un modello non ha assorbito la tua pagina, non puo citarti, non puo raccomandare il tuo prodotto e non puo inviarti un utente.
Questo e anche il segnale in cui GA4 e ogni altro strumento di analisi lato client hanno zero visibilita. I crawl di training sono visibili solo nei tuoi log delle richieste lato server.
I crawl di training AI sono ora a scala di motore di ricerca
Il contesto di volume che la maggior parte dei team perde: Il volume di crawl di training AI su un sito tipico ricco di contenuti ora rivaleggia con il volume di crawl dei principali motori di ricerca. I crawler di training di OpenAI, Anthropic, Google, Common Crawl e ByteDance insieme producono volumi di richieste dello stesso ordine di grandezza di Google Search e Bing combinati. Su molti siti, i recuperi di training AI superano gia i recuperi dei motori di ricerca in frequenza.
Questo non e piu un segnale minore o di canale laterale. I crawler che decidono cosa gli strumenti AI sanno sul tuo brand stanno arrivando alla stessa intensita dei crawler che hanno deciso cosa Google Search sapeva sul tuo brand negli ultimi vent’anni.
Cosa guardare
Con il giusto tracciamento in atto, il segnale di training si scompone in diverse dimensioni che contano per l’azione:
- Volume giornaliero per motore AI su finestre mobili di 30 giorni e all-time.
- Copertura di training come percentuale delle pagine ad alto valore sul tuo sito, suddivisa per sezione.
- Pagine piu recuperate con link in uscita, frequenza di aggiornamento e quali superfici AI le stanno tirando.
- Riepilogo per tipo di pagina in modo da poter vedere a colpo d’occhio se l’AI sta leggendo le tue pagine prodotto, le tue pagine categoria, i tuoi articoli o tutti e tre.
- Suddivisione per motore AI. OpenAI puo dominare mentre il training AI di Google e silenzioso; Anthropic puo restare al tuo blog mentre Common Crawl copre il catalogo.
- Tipi di media. Questa e la dimensione che la maggior parte dei team dimentica. Di piu su questo successivamente.
I media come dati di training: oltre il corpo dell’articolo
La piu grande lacuna nel pensiero della maggior parte dei team e che il training non e solo testo. I bot AI recuperano anche le tue immagini, video e audio. Ognuno e una superficie di training separata e ognuno porta un valore di segnale diverso.
Con un tracciamento migliore in atto, puoi distinguere le pagine dai media non-pagina per vedere cosa ogni motore AI consuma effettivamente:
L’implicazione pratica: il tuo testo alternativo, le tue trascrizioni e il tuo schema sulla pagina non sono piu solo igiene SEO. Sono input di training. Piu sono chiari, piu accuratamente un modello rappresenta il tuo brand e i tuoi contenuti a un futuro utente. Il lato Shopify di questa storia, dove i feed di prodotto e i dati strutturati diventano la superficie di training, e trattato in Piano agentico Shopify: dati di prodotto oltre il tuo controllo.
KPI che contano
La domanda giusta per il segnale di training non e “quanto siamo crawlati” ma “viene crawlato il contenuto giusto, abbastanza spesso, dai motori AI che contano.” La metodologia per passare dai log grezzi a quella domanda e in Comportamento del bot AI: una metodologia di analisi dei log.
Segnale 2: Citazioni in conversazione, lo strato in tempo reale
Le citazioni in conversazione sono l’AI che recupera la tua pagina nel mezzo della chat per rispondere alla domanda live di un utente. Questi sono i recuperi live di ChatGPT, Claude e Perplexity. Ogni recupero e, per definizione, un momento in cui qualcuno ha posto una domanda e il modello ha deciso che la tua pagina era la risposta migliore. Questo e il segnale ad alta intenzione dei tre segnali perche la domanda viene risposta proprio ora.
E anche il segnale che dimostra quale contenuto e davvero di qualita di riferimento dal punto di vista dell’AI. Il training ti dice cosa e stato assorbito. Le citazioni ti dicono cosa viene usato.
Cosa guardare
Il segnale di citazione si scompone lungo le stesse dimensioni del segnale di training, ma il significato di ognuno cambia:
- Volume giornaliero dei recuperi live per assistente. Un picco su una pagina specifica spesso si correla con un ciclo di notizie topico o una nuova domanda di confronto ampiamente posta.
- Copertura delle citazioni, la quota del tuo contenuto di qualita di riferimento che e stato recuperato almeno una volta nell’ultima finestra.
- Pagine piu recuperate con l’assistente che le ha recuperate. Le sorprese qui sono la regola, non l’eccezione. Le pagine che l’AI cita sono raramente le pagine che ti aspetteresti.
- Suddivisione per superficie AI. Diversi assistenti danno priorita a contenuti diversi. ChatGPT e Perplexity tendono a favorire contenuti strutturati di prodotto e riferimento; Claude tende a favorire la scrittura espositiva long-form.
- Tipi di media. I recuperi di citazione live sono per lo piu pagine; immagini e video sono citati meno spesso ma stanno crescendo man mano che le risposte multimodali diventano comuni.
Perche questo segnale e unicamente prezioso
Una citazione live e quanto di piu vicino a un voto di fiducia che l’ecosistema AI produce. E il modello che dice, davanti a un utente reale, “questa pagina e la fonte giusta per questa domanda”. Se stessi tracciando un solo segnale, sarebbe questo.
Il problema e che nulla di tutto cio e visibile a GA4 o a qualsiasi strumento lato client, perche il recupero avviene lato server e l’utente non atterra mai sulla tua pagina. L’unico modo per vedere le citazioni e al confine.
Citazioni vs. quota di voce (SOV)
La quota di voce e l’alternativa fuori sito che la maggior parte dei team usa attualmente quando non puo vedere le citazioni lato server. E una misurazione della frequenza con cui il tuo brand emerge nelle risposte AI in un paniere di prompt rappresentativi. Una categoria crescente di strumenti, tra cui Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar e i moduli AI all’interno di Semrush e BrightEdge, interrogano ChatGPT, Claude, Gemini e Perplexity su larga scala, contano le menzioni del brand e riportano una quota relativa a un set competitivo.
E un segnale direzionale utile, ma la nostra preferenza per misurare le prestazioni del canale AI e il segnale di citazione sopra, perche cattura recuperi effettivi a livello di pagina dalla superficie che ha effettuato il recupero. SOV ha punti ciechi strutturali che le citazioni non hanno.
SOV e probabilistico, le citazioni sono osservate. I modelli AI danno risposte diverse allo stesso prompt a seconda delle impostazioni di temperatura, del contesto di conversazione e dell’ora del giorno. Esegui la stessa query due volte e puoi ottenere due diversi set di menzioni del brand. Gli strumenti SOV mitigano questo tramite campionamento e media, ma la volatilita sottostante e reale, e la precisione di qualsiasi singolo numero e inferiore a quanto suggerisce la maggior parte dei rapporti. I dati di citazione, al contrario, sono un log del server di recuperi effettivi: ognuno e accaduto, e ognuno e contabile.
SOV campiona prompt; le citazioni sono ancorate a conversazioni reali. Uno strumento SOV esegue un paniere di prompt scelti dall’analista. Gli utenti reali fanno domande diverse, in modi diversi, con contesto precedente diverso. Il campione puo o non puo corrispondere a cio che i tuoi clienti effettivamente chiedono, e la maggior parte degli strumenti non rende trasparente il loro set di prompt. Una citazione live, per definizione, e venuta da un utente reale che pone una domanda reale, quindi non c’e bias di campionamento.
I modelli cambiano. Ogni nuova versione del modello, modifica del prompt di sistema o cambiamento di recupero sposta cio che viene citato. Una cifra SOV misurata rispetto ai modelli del trimestre scorso e una misurazione diversa da una presa rispetto a quelli di questo trimestre, e la maggior parte degli strumenti non e trasparente sulla versione del modello nei loro rapporti. L’attivita di citazione si adegua in tempo reale perche viene catturata direttamente dal recupero, senza strato di inferenza in mezzo.
Il modo piu pulito per usare SOV e accanto al segnale di citazione, non come sostituto. SOV e un benchmark direzionale fuori sito di quanto spesso il tuo brand emerge nelle risposte. Le citazioni sono il record verificato sul sito di quali pagine l’AI ha effettivamente usato per produrle. Usate insieme, la simulazione fuori sito e la verita sul sito danno un quadro piu completo di entrambe da sole.
KPI che contano
Un pattern tipico, tratto da implementazioni reali di editori ed e-commerce: un piccolo set di pagine evergreen produce la maggior parte delle citazioni, mentre la homepage entra raramente nelle top 50. Se il modello ha deciso che la tua guida di confronto approfondita e la risposta giusta a una domanda, recuperera quella pagina centinaia di volte a settimana e non la tua homepage affatto. Quello e il segnale operativo che vuoi.
Segnale 3: Utenti reali, il referral ad alta intenzione
I motori AI sono motori di ricerca, non canali di interruzione. Un utente che clicca su una citazione in ChatGPT, Claude, Perplexity o Copilot ha gia posto la sua domanda, valutato la risposta e scelto la tua pagina come passo successivo. Quando atterrano sul tuo sito, sono piu avanti nella curva di considerazione di un utente da qualsiasi canale che li ha interrotti. Nelle nostre implementazioni, questo si traduce in tassi di conversione piu alti e finestre di considerazione piu brevi rispetto a social, display e spesso anche ricerca a pagamento. Il framing e importante perche gli utenti riferiti dall’AI sono pre-qualificati al loro arrivo; per il contesto piu ampio del percorso dell’acquirente, vedi L’AI e un motore di ricerca, non un canale di vendita.
Questo e anche l’unico segnale che uno strumento di analisi tradizionale puo vedere affatto, e il segnale a cui la maggior parte dei team ricorre quando sente “traffico LLM”. E anche il segnale in cui il gap WebView e il gap senza referrer di Gemini/Claude fanno sotto-riportare GA4 di un fattore di 2,5 a 5, quindi l’alta intenzione e piu non contata di qualsiasi altro canale sul tuo sito.
Cosa guardare
- Sessioni per assistente sorgente, classificate lato server piuttosto che affidarsi alle intestazioni del referrer.
- Distribuzione della pagina di destinazione. Gli utenti riferiti dall’AI tendono ad atterrare su pagine profonde, non sulla homepage.
- Tasso di conversione per sorgente, confrontato con la tua baseline organica. Nelle nostre implementazioni, la conversione riferita dall’AI tipicamente corre piu alta del social per sessione.
- Finestre di tempo all’acquisto. Gli utenti ChatGPT tendono a convertire lo stesso giorno; gli utenti Perplexity spesso impiegano da tre a cinque giorni; Gemini si trova nel mezzo.
- Attribuzione delle entrate. Corrispondenza IP-a-ordine verificata per i casi piu puliti, corrispondenza probabilistica per il resto.
Come misurare il traffico di referral degli LLM in Google Analytics (la risposta onesta)
La risposta breve e: non puoi, completamente. Gli UTM sono presenti da ChatGPT ma non da Gemini o Claude. I referrer sono presenti dai browser desktop ma rimossi sulle app mobili. Le panoramiche AI appaiono sotto la ricerca organica senza capacita di separazione. Puoi costruire un quadro parziale filtrando su utm_source=chatgpt.com e sui referrer chatgpt.com, claude.ai, perplexity.ai, gemini.google.com e copilot.microsoft.com, ma starai guardando circa un quarto del traffico effettivo.
La risposta onesta e catturare questo segnale lato server. La mappa di attribuzione completa, con ogni test dispositivo per dispositivo che abbiamo eseguito, e in Il traffico LLM e un punto cieco nella tua analisi.
Mobile e dove il gap di attribuzione LLM e piu grande
Ecco la parte del sotto-conteggio dei referral che conta di piu: il dispositivo che la maggior parte del tuo pubblico usa e anche il dispositivo dove l’attribuzione AI e piu difficile da vedere chiaramente. Il mobile guida il 70-90 percento delle sessioni di siti consumer, ed e dove vivono le app LLM. Sulle piattaforme che abbiamo testato, il mobile e la superficie meno tracciata per ogni LLM che conta.
La ragione strutturale e che le app mobili LLM rendono i link in uscita in WebView isolate, che rimuovono il referrer e staccano la sessione da qualsiasi contesto browser precedente. La prevenzione intelligente del tracciamento di iOS WebKit aggrava il problema su iPhone, dove la WebView e soggetta a restrizioni sui cookie anche quando la conversione avviene al suo interno.
Il risultato e che una vista solo referral del traffico LLM finisce per sembrare per lo piu una vista desktop, anche se il pubblico effettivo e per lo piu mobile. I confronti tra piattaforme tratti dai numeri GA4 sono piu facili da interpretare una volta tenuto conto di quel gap mobile. La matrice completa dispositivo per dispositivo, inclusi gli scenari desktop, e in Il traffico LLM e un punto cieco nella tua analisi.
KPI che contano
Per uno sguardo piu approfondito su come questo si inserisce nel piu ampio percorso dell’acquirente, vedi L’AI e un motore di ricerca, non un canale di vendita. Il framing e importante perche gli utenti riferiti dall’AI sono spesso ricercatori a meta funnel, e giudicare il canale solo sulla conversione della stessa sessione lo sottovalutera.
Dal segnale all’azione: come i dati di traffico LLM guidano l’impatto
La misurazione si guadagna il suo valore solo quando porta all’azione. Con i tre segnali tracciati insieme, due pattern di raccomandazione emergono in modo affidabile dai dati cross-segnale, piu un log continuo che un team puo tenere di cio su cui si e lavorato.
Freschezza dei contenuti
Gli URL principali crawlati per il training negli ultimi 30 giorni, classificati per frequenza di recupero. La raccomandazione e diretta: tenerli accurati, perche i modelli impareranno qualunque cosa sia sulla pagina proprio ora e rappresenteranno il tuo brand di conseguenza ai futuri utenti. Una pagina obsoleta su cui OpenAI sta facendo training di notte e una pagina obsoleta che ChatGPT rappresentera male per il prossimo ciclo di training.
Azione: rivedi ogni pagina principalmente crawlata in una cadenza ricorrente, correggi qualsiasi cosa obsoleta e mantieni un record di cio che e stato rivisto e quando, in modo che la freschezza diventi un workflow tracciato piuttosto che un audit una tantum.
Pagine crawlate ma non citate
Pagine che i bot di training AI stanno recuperando ma che hanno prodotto zero citazioni e zero referral nella stessa finestra. Divise in prodotti e categorie per l’e-commerce, in tipi di articolo per gli editori. Questo e il gap di citazione, ed e di solito il pattern a piu alta leva su cui agire.
I bot hanno letto la pagina. Il modello non ha scelto di citarla. La correzione e quasi sempre la stessa famiglia di cambiamenti: titoli piu chiari, descrizioni migliori, testo in stile FAQ e JSON-LD che nomina il prodotto, il pubblico e la risposta alla domanda ovvia.
Azione: riscrivi la pagina per renderla piu citabile, poi traccia il segnale di citazione su quell’URL nelle prossime due settimane per verificare la correzione.
La mappa di azione cross-segnale
Una volta che hai tutti e tre i segnali catturati, emergono quattro pattern e ognuno indica un lavoro specifico. Ogni cella mostra se quel segnale e attivo (la pagina sta apparendo li), mancante (il segnale e assente), debole (il segnale e li ma sotto-performante) o n/d quando la domanda non si applica al pattern.
Questo e cio che intendiamo per “i dati di traffico LLM guidano l’azione”. Quando i tre segnali si trovano fianco a fianco, ogni pattern indica un tipo specifico di lavoro, in modo che un team possa dare priorita a un cambiamento da spedire questa settimana e controllare l’impatto la prossima settimana.
Come fare benchmarking della copertura dei tuoi contenuti per training e citazioni
Nell’era di Google Search, l’indicizzazione era la metrica di salute fondamentale. Prima che una pagina potesse classificarsi, guadagnare click o convertire, doveva essere nell’indice. La copertura e la stessa metrica per l’era LLM, e merita di essere tracciata come la sua propria cosa, non piegata in nessun singolo segnale.
La copertura e la percentuale dei contenuti che ti interessano che l’AI sta effettivamente leggendo e usando. E la cosa piu vicina a un numero stella polare per il canale AI perche si colloca a monte di ogni altro segnale. Se un modello non ha assorbito la tua pagina, l’AI non puo citarla. Se una pagina non viene mai citata, l’AI non puo inviare un utente a essa. La copertura e la porta che decide se il resto del funnel e anche possibile.
Trattare la copertura come la sua propria metrica, distinta da uno qualsiasi dei tre segnali, e cio che rende il canale AI misurabile in un modo che i team familiari con la ricerca organica gia capiscono. La domanda passa da “siamo crawlati” a “abbastanza del contenuto giusto sta raggiungendo la risposta”. La copertura si divide nettamente lungo i primi due segnali.
Benchmark di copertura training
Definisci prima il tuo universo di contenuti di riferimento. Per un team e-commerce questo e tipicamente tutte le pagine prodotto attive, tutte le pagine categoria e tutte le guide evergreen. Per un editore e l’archivio di articoli piu le pagine di destinazione di riferimento e di argomento. L’universo e il denominatore.
Poi chiedi: negli ultimi 30 giorni, quale percentuale di quegli URL e stata recuperata almeno una volta da un crawler di training verificato di uno qualsiasi dei principali motori AI? Questa e la tua copertura training a 30 giorni. Un sito sano con link interni ragionevoli e una sitemap pulita dovrebbe correre al 90 percento o piu. Sotto, hai un problema di rilevabilita: i bot non possono trovare o non tornano a una porzione significativa del tuo inventario.
Poi suddividi lo stesso numero per motore AI. La copertura per motore e dove vive la leva. OpenAI potrebbe coprire il 95 percento mentre Google copre il 40 percento e Anthropic copre il 70 percento. Quella diffusione ti dice esattamente dove investire in accesso specifico per superficie (revisione robots.txt, invio sitemap, miglioramenti dei dati strutturati) e quali modelli rappresenteranno il tuo brand accuratamente o male quando un futuro utente chiedera.
Benchmark di copertura citazioni
La copertura delle citazioni si costruisce allo stesso modo ma contro un denominatore piu stretto: il tuo contenuto di qualita di riferimento, le pagine che ti aspetteresti che l’AI citasse se capisse correttamente il tuo sito. Per un team e-commerce questo e tipicamente le guide, i confronti e i contenuti in stile FAQ, non le pagine prodotto stesse. Per un editore sono i tuoi articoli evergreen e di riferimento.
Chiedi: negli ultimi 30 giorni, quale percentuale di quegli URL di riferimento ha ricevuto almeno un recupero live da ChatGPT, Claude o Perplexity? Questa e la tua copertura citazioni a 30 giorni. Un sito il cui contenuto di riferimento e ben strutturato, ben titolato e arricchito in JSON-LD dovrebbe correre al 60-80 percento. Sotto il 40 percento e un problema di citabilita, quasi sempre risolvibile con titoli piu chiari, descrizioni migliori, testo in stile FAQ e piu dati strutturati.
Poi suddividi per assistente. ChatGPT dominera il volume sulla maggior parte dei siti; Claude sara sotto-rappresentato in qualsiasi strumento che non gestisce correttamente il traffico di bot non verificabile; Perplexity sara sovra-indicizzato sui contenuti strutturati di prodotto e riferimento.
Come appare la salute complessivamente
Le soglie esatte variano per profondita dell’archivio, mix di contenuti e pubblico, ma il pattern di un profilo sano e abbastanza coerente da pubblicare:
- Copertura training delle tue prime 100 pagine: a o vicino al 100 percento su una finestra di 30 giorni, con almeno tre o quattro motori AI che recuperano attivamente.
- Copertura citazioni del tuo contenuto di qualita di riferimento: 60-80 percento su una finestra di 30 giorni. Sotto il 40 percento indica gap di citabilita in titoli, descrizioni e dati strutturati.
- Pagine di citazione principali: contenuto evergreen, approfondito, di qualita di riferimento. La homepage non dovrebbe essere nelle prime 20.
- Concentrazione di citazioni: 60-80 percento di tutte le citazioni sulle tue prime 30 pagine e normale. Concentrazione solo sulle prime 5 significa che la tua superficie di riferimento e troppo stretta. Se i tuoi numeri divergono nettamente da questo pattern, la diagnosi e di solito gap nei dati strutturati, contenuto che il modello non considera citabile o un problema di copertura che link interni e sitemap possono risolvere.
Per il primer fondamentale sulla visibilita AI prima di qualsiasi di questo, vedi Capire la visibilita AI. Per il framework a sette KPI che si mappa pulitamente sul modello a tre segnali, vedi Metriche di prestazione AI: sette KPI che ogni brand dovrebbe tracciare.
Smetti di stimare, inizia ad attivare
Quando il traffico LLM viene riportato come un singolo numero, molto contesto utile va perso. I contenuti forti possono sembrare piu silenziosi di quanto siano realmente perche la maggior parte del loro impatto cade fuori dallo strumento di analisi. La performance promettente e difficile da risalire all’attivita a monte che l’ha guadagnata. I team finiscono per appoggiarsi a segnali indiretti perche quelli diretti non sono ancora visibili.
Tre segnali sul tuo sito riempiono quel quadro. Il training ti mostra cio che l’AI sta assorbendo sul tuo brand e sui tuoi contenuti. Le citazioni ti mostrano quali pagine l’AI sta raggiungendo per rispondere a domande reali in tempo reale. I referral ti mostrano gli utenti ad alta intenzione che l’AI invia attraverso. A monte di tutti e tre c’e la copertura, l’equivalente dell’era LLM dell’indicizzazione, e la porta che decide se il resto del funnel e anche possibile.
Letti insieme, i tre segnali danno a un team un chiaro pattern cross-segnale su cui agire ogni settimana. Le superstar AI sono pagine da proteggere, i gap di citazione sono pagine da riscrivere, i problemi di click indicano la velocita di caricamento e il framing dello snippet, e i gap di copertura indicano la rilevabilita. Fuori sito, la quota di voce e un benchmark direzionale utile per le conversazioni che avvengono nelle risposte AI, ma per misurare l’impatto reale delle prestazioni, il modello a tre segnali sul sito e cio attorno a cui crediamo che i brand debbano orientarsi mentre investono nella crescita del canale AI.
Insieme, trasformano il canale AI da qualcosa da stimare in qualcosa che il tuo team puo pianificare, misurare e su cui agire con fiducia.
Tutti e tre i segnali in un’unica dashboard
La dashboard qui sotto raccoglie i tre segnali on-site in un’unica vista, con la copertura dei contenuti tracciata accanto come gate upstream. I crawl di training arrivano per pagina, le citazioni sono suddivise per motore e i referral vengono attribuiti end-to-end fino al fatturato.