Monitorowanie ruchu LLM: trzy sygnaly (trening, cytaty, polecenia)
Czym tak naprawde jest ruch LLM
Ruch LLM jest czesto omawiany jako pojedyncza liczba, a takie ujecie pozostawia wiele na stole. Na twojej wlasnej stronie aktywnosc AI w rzeczywistosci pojawia sie jako trzy odrebne sygnaly, ktore mozesz mierzyc bezposrednio, kazdy wytwarzany przez inny rodzaj zachowania AI i kazdy wskazujacy na inna prace. Czwarty sygnal, Share of Voice, jest mierzony poza witryna. To mniej wiarygodny wymiar wydajnosci, ale to podejscie, ktore obecnie uzywa wiekszosc zespolow do widoku poza witryna. W miarei jak zespoly skupiaja sie na wzroscie kanalu AI, uwazamy, ze marki powinny orientowac sie wokol tego modelu trzech sygnalow do mierzenia wydajnosci.
Kazdy sygnal warto sledzic osobno, uporzadkowany wedlug tego, gdzie jest uzytkownik, gdy kazdy z nich sie zdarza: czas treningu zanim ktokolwiek uzytkownik jest zaangazowany, rozmowa na zywo, w ktorej uzytkownik wlasnie zadaje pytanie, oraz przejscie, w ktorym uzytkownik jest na twojej stronie. Ten model trzech sygnalow uchwyca, jak AI faktycznie wchodzi w interakcje ze strona, czego potrzebuja wydawcy i operatorzy e-commerce do podejmowania decyzji. Zbudowalismy AI Channel Analytics wokol tego samego modelu.
Gdy mysliesz w trzech sygnalach zamiast jednej liczbie, pytania, ktore zespoly zadaja najczesciej, jak monitorowac ruch LLM, co nalezy do dashboardu i ktore liczby sa najbardziej uzyteczne, staja sie znacznie latwiejsze do udzielenia odpowiedzi.
Dlaczego GA4 i inne narzedzia analityczne po stronie klienta maja z tym trudnosci
Zanim wejdziemy w sygnaly, krotkie slowo o tym, co istniejace narzedzia analityczne moga i czego nie moga pokazac. GA4 jest dominujacym narzedziem i ma dobrze znane ograniczenia, jesli chodzi o ruch AI. Te same ograniczenia dotycza Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo i kazdego innego narzedzia, ktore zalezy od wyzwolenia tagu JavaScript w prawdziwej przegladarce. Powod jest architektoniczny, a nie konfigurowalny, wiec wyprobowanie innego narzedzia zwykle prowadzi do tego samego miejsca.
Pokrylismy pelny obraz dla GA4 specyficznie w Ruch LLM jest martwym punktem w twojej analityce, wiec oto krotka wersja. Kazdy sygnal wchodzi w interakcje z analityka po stronie klienta inaczej.
- Indeksacje treningowe nie sa widoczne, poniewaz boty nie wykonuja JavaScript. Pobrania treningowe OpenAI, Anthropic i Google AI nie wyzwalaja tagow po stronie klienta z zalozenia. GA4, Adobe, Mixpanel, Amplitude, Heap oraz narzedzia chroniace prywatnosc takie jak Plausible i Fathom dziela ta luke, poniewaz zaden z nich nie loguje zapytania, chyba ze przegladarka uruchomi ich tag.
- Cytaty w rozmowie odbywaja sie calkowicie poza twoja strona. AI pobiera twoja strone po stronie serwera w imieniu uzytkownika i renderuje odpowiedz wewnatrz czatu. Zadna przegladarka sie nie otwiera, zadne zdarzenie analityczne sie nie wyzwala, wiec ta aktywnosc nie pojawia sie w zadnym narzedziu po stronie klienta.
- Polecenia od prawdziwych uzytkownikow sa czesciowo widoczne w kazdym narzedziu po stronie klienta, ale zazwyczaj zaniezone o wspolczynnik 2,5x do 5x. Mobilne aplikacje LLM renderuja linki wychodzace w izolowanych WebViewach, ktore usuwaja referrer. Gemini i Claude nie przekazuja zadnego sygnalu atrybucji na wiekszosci testowanych platform. Google AI Overviews sa grupowane pod wyszukiwaniem organicznym, co utrudnia ich oddzielenie. To samo grupowanie pojawia sie tak samo, czy raport, ktory czytasz, jest w GA4, Adobe czy alternatywie chroniacej prywatnosc.
Naprawa nie jest lepszym tagiem, czystsza strategia UTM ani przejsciem na inne narzedzie po stronie klienta. Naprawa to przechwytywanie po stronie serwera na brzegu, sklasyfikowane wedlug user agent, zweryfikowanego zakresu IP i odwroconego DNS, oraz zszyte per powierzchnia AI. To jedyny sposob, aby zobaczyc wszystkie trzy sygnaly naraz, i jest niezalezny od tego, ktore narzedzie analityczne po stronie klienta utrzymujesz dla reszty ruchu.
Sygnal 1: Trening LLM
Trening LLM to AI czytajace twoja marke i tresc, aby zasilic nastepna wersje swoich modeli. Crawlery treningowe od OpenAI, Anthropic, Google, Common Crawl i ByteDance pobieraja twoje strony w ciaglym harmonogramie, przyjmuja tresc i wprowadzaja ja do nastepnego cyklu treningowego. To podstawa kazdej pozniejszej interakcji. Jesli model nie wchlonal twojej strony, nie moze cie cytowac, nie moze polecic twojego produktu i nie moze wyslac do ciebie uzytkownika.
To jest tez sygnal, w ktory GA4 i kazde inne narzedzie analityczne po stronie klienta maja zerowa widocznosc. Indeksacje treningowe sa widoczne tylko w twoich logach zapytan po stronie serwera.
Indeksacje treningowe AI sa teraz na skali wyszukiwarki
Kontekst objetosci, ktory wiekszosc zespolow przeocza: Objetosc indeksacji treningowych AI na typowej stronie bogatej w tresc rywalizuje teraz z objetoscia indeksacji od wiodacych wyszukiwarek. Crawlery treningowe OpenAI, Anthropic, Google, Common Crawl i ByteDance razem produkuja objetosci zapytan w tym samym rzedzie wielkosci co Google Search i Bing razem wziete. Na wielu stronach pobrania treningowe AI juz przewyzszaja pobrania wyszukiwarek pod wzgledem czestotliwosci.
To juz nie jest mniejszy lub poboczny sygnal. Crawlery, ktore decyduja, co narzedzia AI wiedza o twojej marce, przybywaja z taka sama intensywnoscia, co crawlery, ktore decydowaly, co Google Search wiedzialo o twojej marce przez ostatnie dwadziescia lat.
Na co patrzec
Z odpowiednim sledzeniem na miejscu sygnal treningowy rozklada sie na kilka wymiarow, ktore maja znaczenie dla dzialania:
- Dzienna objetosc wedlug silnika AI w przesuwajacych sie oknach 30-dniowych i wszechczasowych.
- Pokrycie treningu jako procent stron o wysokiej wartosci na twojej stronie, podzielone na sekcje.
- Najczesciej pobierane strony z linkiem wychodzacym, czestotliwoscia odswiezania i ktore powierzchnie AI je ciagna.
- Podsumowanie typu strony, abys mogl zobaczyc na pierwszy rzut oka, czy AI czyta twoje strony produktowe, strony kategorii, artykuly czy wszystkie trzy.
- Podzial silnika AI. OpenAI moze dominowac, podczas gdy trening AI Google jest cichy; Anthropic moze zostac przy twoim blogu, podczas gdy Common Crawl pokrywa katalog.
- Typy mediow. To wymiar, o ktorym wiekszosc zespolow zapomina. Wiecej o tym dalej.
Media jako dane treningowe: poza tresc artykulu
Najwieksza luka w mysleniu wiekszosci zespolow polega na tym, ze trening to nie tylko tekst. Boty AI pobieraja takze twoje obrazy, wideo i audio. Kazdy z nich jest osobna powierzchnia treningowa, a kazdy niesie inna wartosc sygnalowa.
Z lepszym sledzeniem na miejscu mozesz odroznic strony od mediow innych niz strony, aby zobaczyc, co kazdy silnik AI faktycznie konsumuje:
Praktyczna implikacja: twoj tekst alternatywny, transkrypcje i schema na stronie to juz nie tylko higiena SEO. Sa wejsciami treningowymi. Im sa jasniejsze, tym dokladniej model reprezentuje twoja marke i tresc przyszlemu uzytkownikowi. Strona Shopify tej historii, gdzie kanaly produktowe i dane strukturalne staja sie powierzchnia treningowa, jest opisana w Plan agentowy Shopify: dane produktowe poza twoja kontrola.
KPI, ktore maja znaczenie
Wlasciwe pytanie dla sygnalu treningowego nie brzmi “ile jestesmy indeksowani”, ale “czy odpowiednia tresc jest indeksowana, wystarczajaco czesto, przez silniki AI, ktore maja znaczenie”. Metodologia przejscia od surowych logow do tego pytania znajduje sie w Zachowanie botow AI: metodologia analizy logow.
Sygnal 2: Cytaty w rozmowie, warstwa w czasie rzeczywistym
Cytaty w rozmowie to AI pobierajace twoja strone w trakcie czatu, aby odpowiedziec na pytanie uzytkownika na zywo. To pobrania na zywo z ChatGPT, Claude i Perplexity. Kazde pobranie jest z definicji momentem, w ktorym ktos zadal pytanie, a model zdecydowal, ze twoja strona to najlepsza odpowiedz. To sygnal o najwyzszej intencji z trzech sygnalow, poniewaz pytanie jest udzielane teraz.
To takze sygnal, ktory dowodzi, ktora tresc jest naprawde jakosci referencyjnej w widoku AI. Trening mowi ci, co zostalo wchloniete. Cytaty mowia ci, co jest uzywane.
Na co patrzec
Sygnal cytatu rozklada sie wzdluz tych samych wymiarow co sygnal treningowy, ale znaczenie kazdego z nich sie zmienia:
- Dzienna objetosc pobran na zywo na asystenta. Skok na konkretnej stronie czesto koreluje z aktualnym cyklem wiadomosci lub nowym pytaniem porownawczym, ktore jest szeroko zadawane.
- Pokrycie cytatow, udzial twojej tresci jakosci referencyjnej, ktora zostala pobrana co najmniej raz w ostatnim oknie.
- Najczesciej pobierane strony z asystentem, ktory je pobral. Niespodzianki tutaj sa regula, a nie wyjatkiem. Strony, ktore AI cytuje, rzadko sa stronami, ktorych byc sie spodziewal.
- Podzial powierzchni AI. Rozni asystenci priorytetyzuja roznia tresc. ChatGPT i Perplexity czesto faworyzuja strukturalne tresci produktowe i referencyjne; Claude czesto faworyzuje dluzsze pisanie ekspozycyjne.
- Typy mediow. Pobrania cytatow na zywo to glownie strony; obrazy i wideo sa cytowane rzadziej, ale rosna w miare jak odpowiedzi multimodalne staja sie powszechne.
Dlaczego ten sygnal jest unikalnie cenny
Cytat na zywo to najbliznsze do glosu zaufania, jakie ekosystem AI produkuje. To model mowiacy, przed prawdziwym uzytkownikiem: “ta strona to wlasciwe zrodlo dla tego pytania”. Gdybys sledzil tylko jeden sygnal, to bylby ten.
Haczyk polega na tym, ze nic z tego nie jest widoczne dla GA4 ani zadnego narzedzia po stronie klienta, poniewaz pobranie odbywa sie po stronie serwera, a uzytkownik nigdy nie lapie sie na twojej stronie. Jedynym sposobem zobaczenia cytatow jest na brzegu.
Cytaty vs. Share of Voice (SOV)
Share of Voice to alternatywa poza witryna, ktora obecnie uzywa wiekszosc zespolow, gdy nie moga zobaczyc cytatow po stronie serwera. To pomiar tego, jak czesto twoja marka pojawia sie w odpowiedziach AI w koszyku reprezentatywnych promptow. Rosnaca kategoria narzedzi, w tym Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar oraz moduly AI w Semrush i BrightEdge, odpytuja ChatGPT, Claude, Gemini i Perplexity na duza skale, licza wzmianki o markach i raportuja udzial wzgledem zestawu konkurencyjnego.
To uzyteczny sygnal kierunkowy, ale nasza preferencja dla mierzenia wydajnosci kanalu AI to sygnal cytatu powyzej, poniewaz uchwytuje rzeczywiste pobrania na poziomie strony przez powierzchnie, ktora dokonala pobrania. SOV ma strukturalne martwe punkty, ktorych cytaty nie maja.
SOV jest probabilistyczny, cytaty sa obserwowane. Modele AI daja rozne odpowiedzi na ten sam prompt w zaleznosci od ustawien temperatury, kontekstu rozmowy i pory dnia. Uruchom to samo zapytanie dwukrotnie i mozesz dostac dwa rozne zestawy wzmianek o marce. Narzedzia SOV lagodza to przez probkowanie i usrednianie, ale lezaca u podstaw zmiennosc jest realna, a precyzja kazdej pojedynczej liczby jest nizsza, niz sugeruja wiekszosc raportow. Dane cytatow, przeciwnie, to log serwera rzeczywistych pobran: kazde sie zdarzylo i kazde jest policzalne.
SOV probkuje prompty; cytaty sa zakotwiczone w prawdziwych rozmowach. Narzedzie SOV uruchamia koszyk promptow wybranych przez analityka. Prawdziwi uzytkownicy zadaja rozne pytania, na rozne sposoby, z roznym wczesniejszym kontekstem. Probka moze, ale nie musi pasowac do tego, o co twoi klienci faktycznie pytaja, a wiekszosc narzedzi nie udostepnia transparentnie swojego zestawu promptow. Cytat na zywo z definicji pochodzi od prawdziwego uzytkownika zadajacego prawdziwe pytanie, wiec nie ma stronniczosci probkowania.
Modele zmieniaja sie. Kazde nowe wydanie modelu, dostosowanie promptu systemowego lub zmiana pobierania zmienia to, co jest cytowane. Liczba SOV mierzona w stosunku do modeli z poprzedniego kwartalu to inny pomiar niz wziety w stosunku do modeli z tego kwartalu, a wiekszosc narzedzi nie jest transparentna co do wersjonowania modelu w swoich raportach. Aktywnosc cytowania dostosowuje sie w czasie rzeczywistym, poniewaz jest przechwytywana bezposrednio z pobierania, bez warstwy wnioskowania pomiedzy.
Najczystszym sposobem uzywania SOV jest obok sygnalu cytatu, nie jako zastapienie. SOV jest kierunkowym, off-site benchmarkiem tego, jak czesto twoja marka pojawia sie w odpowiedziach. Cytaty to zweryfikowany, on-site rekord tego, ktore strony AI faktycznie uzylo do ich wyprodukowania. Uzywane razem, symulacja off-site i prawda on-site daja pelniejszy obraz niz kazda z osobna.
KPI, ktore maja znaczenie
Typowy wzorzec, zaczerpniety z prawdziwych wdrozen wydawcow i e-commerce: maly zestaw stron evergreen produkuje wiekszosc cytatow, podczas gdy strona glowna rzadko trafia do top 50. Jesli model zdecydowal, ze twoj szczegolowy przewodnik porownawczy to wlasciwa odpowiedz na pytanie, pobierze te strone setki razy w tygodniu i wcale nie twoja strone glowna. To operacyjny sygnal, ktorego chcesz.
Sygnal 3: Prawdziwi uzytkownicy, polecenie o wysokiej intencji
Silniki AI to silniki badawcze, a nie kanaly przerywania. Uzytkownik klikajacy cytat w ChatGPT, Claude, Perplexity lub Copilot juz zadal swoje pytanie, ocenil odpowiedz i wybral twoja strone jako nastepny krok. Zanim lapia sie na twojej stronie, sa dalej w krzywej rozwazan niz uzytkownik z jakiegokolwiek kanalu, ktory ich przerwal. W naszych wdrozeniach przeklada sie to na wyzsze wskazniki konwersji i krotsze okna rozwazan niz spolecznosciowe, display i czesto nawet platne wyszukiwanie. Ujecie ma znaczenie, poniewaz uzytkownicy poleceni przez AI sa wstepnie kwalifikowani w momencie przybycia; dla szerszego kontekstu podrozy kupujacego zobacz AI to silnik badawczy, a nie kanal sprzedazy.
To takze jedyny sygnal, ktory tradycyjne narzedzie analityczne moze w ogole zobaczyc, i sygnal, do ktorego wiekszosc zespolow domyslnie sie zwraca, gdy slysza “ruch LLM”. To takze sygnal, w ktorym luka WebView i luka braku referrera Gemini/Claude powoduja, ze GA4 zaniza o wspolczynnik 2,5 do 5, wiec wysoka intencja jest bardziej nieliczona niz kazdy inny kanal na twojej stronie.
Na co patrzec
- Sesje wedlug zrodlowego asystenta, klasyfikowane po stronie serwera, a nie poleganie na naglowkach referrera.
- Dystrybucja stron docelowych. Uzytkownicy poleceni przez AI maja tendencje do ladowania na glebokich stronach, a nie na stronie glownej.
- Wskaznik konwersji wedlug zrodla, porownany z twoja organiczna linia bazowa. W naszych wdrozeniach konwersja polecona przez AI zwykle dziala wyzej niz spolecznosciowe na zasadzie na sesje.
- Okna czasu do zakupu. Uzytkownicy ChatGPT maja tendencje do konwertowania w tym samym dniu; uzytkownicy Perplexity czesto zajmuja od trzech do pieciu dni; Gemini siedzi posrodku.
- Atrybucja przychodow. Zweryfikowane dopasowanie IP-do-zamowienia dla najczystszych przypadkow, dopasowanie probabilistyczne dla reszty.
Jak mierzyc ruch poleceniowy z LLM-ow w Google Analytics (uczciwa odpowiedz)
Krotka odpowiedz brzmi: nie mozesz, calkowicie. UTMy sa obecne z ChatGPT, ale nie z Gemini lub Claude. Referrery sa obecne z desktopowych przegladarek, ale usuwane na aplikacjach mobilnych. AI Overviews pojawiaja sie pod wyszukiwaniem organicznym bez moliwosci oddzielenia. Mozesz zbudowac czesciowy obraz filtrujac po utm_source=chatgpt.com oraz po referrerach chatgpt.com, claude.ai, perplexity.ai, gemini.google.com i copilot.microsoft.com, ale bedziesz patrzec na okolo cwierc rzeczywistego ruchu.
Uczciwa odpowiedz to uchwycenie tego sygnalu po stronie serwera. Pelna mapa atrybucji, z kazdym testem urzadzenie po urzadzeniu, ktory uruchomilismy, znajduje sie w Ruch LLM jest martwym punktem w twojej analityce.
Mobile to miejsce, gdzie luka atrybucji LLM jest najwieksza
Oto czesc zanizenia polecen, ktora ma najwieksze znaczenie: urzadzenie, ktorego uzywa wiekszosc twojej publicznosci, to takze urzadzenie, gdzie atrybucja AI jest najtrudniejsza do wyraznego zobaczenia. Mobile napedza 70 do 90 procent sesji witryn skierowanych do konsumentow, i to wlasnie tam zyja aplikacje LLM. Na platformach, ktore testowalismy, mobile to najmniej sledzona powierzchnia dla kazdego LLM, ktory ma znaczenie.
Strukturalny powod jest taki, ze mobilne aplikacje LLM renderuja linki wychodzace w izolowanych WebViewach, ktore usuwaja referrer i odlaczaja sesje od jakiegokolwiek wczesniejszego kontekstu przegladarki. Inteligentne zapobieganie sledzeniu iOS WebKit pogarsza problem na iPhonie, gdzie WebView podlega ograniczeniom plikow cookie nawet wtedy, gdy konwersja ma miejsce wewnatrz niego.
Wynikiem jest to, ze widok tylko polecen ruchu LLM konczy sie wygladajac glownie jak widok desktopowy, mimo ze rzeczywista publicznosc jest glownie mobilna. Porownania miedzy platformami zaczerpniete z liczb GA4 sa latwiejsze do interpretacji, gdy ta luka mobilna zostanie uwzgledniona. Pelna macierz urzadzenie po urzadzeniu, w tym scenariusze desktopowe, znajduje sie w Ruch LLM jest martwym punktem w twojej analityce.
KPI, ktore maja znaczenie
Dla glebszego spojrzenia na to, jak to pasuje do szerszej podrozy kupujacego, zobacz AI to silnik badawczy, a nie kanal sprzedazy. Ujecie ma znaczenie, poniewaz uzytkownicy poleceni przez AI sa czesto badaczami w srodku lejka, a osadzanie kanalu tylko na podstawie konwersji w tej samej sesji niedoceni go.
Od sygnalu do dzialania: jak dane ruchu LLM napedzaja wplyw
Pomiar zarabia na swojej wartosci tylko wtedy, gdy prowadzi do dzialania. Z trzema sygnalami sledzonymi razem dwa wzorce rekomendacji niezawodnie wylaniaja sie z danych miedzysygnalowych, plus ciagly log, ktory zespol moze prowadzic na temat tego, nad czym pracowano.
Swiezosc tresci
Glowne URL-e indeksowane treningowo w ciagu ostatnich 30 dni, uporzadkowane wedlug czestotliwosci pobierania. Rekomendacja jest bezposrednia: utrzymuj je dokladne, poniewaz modele naucza sie tego, co jest na stronie wlasnie teraz, i odpowiednio przedstawia twoja marke przyszlym uzytkownikom. Niedaktualna strona, na ktorej OpenAI trenuje co noc, to niedaktualna strona, ktora ChatGPT bedzie zle reprezentowac w nastepnym cyklu treningowym.
Dzialanie: przegladaj kazda glowna indeksowana strone w powtarzajacej sie kadencji, naprawiaj wszystko, co jest niedaktualne, i prowadz rekord tego, co zostalo przejrzane i kiedy, aby swiezosc stala sie sledzonym workflow, a nie jednorazowym audytem.
Strony indeksowane, ale nie cytowane
Strony, ktore boty treningowe AI pobieraja, ale ktore nie wyprodukowaly zadnych cytatow ani polecen w tym samym oknie. Podzielone na produkty i kategorie dla e-commerce, na typy artykulow dla wydawcow. To jest luka cytowania i zazwyczaj wzorzec o najwyzszej dzwigni, na ktorym mozna dzialac.
Boty przeczytaly strone. Model nie zdecydowal sie jej cytowac. Naprawa to prawie zawsze ta sama rodzina zmian: jasniejsze tytuly, lepsze opisy, tekst w stylu FAQ i JSON-LD nazywajacy produkt, publicznosc i odpowiedz na oczywiste pytanie.
Dzialanie: przepisz strone, aby byla bardziej cytowalna, a nastepnie sledz sygnal cytatu na tym URL-u przez nastepne dwa tygodnie, aby zweryfikowac naprawe.
Mapa dzialania miedzysygnalowa
Gdy masz wszystkie trzy sygnaly uchwycone, wylaniaja sie cztery wzorce i kazdy wskazuje na konkretna prace. Kazda komorka pokazuje, czy ten sygnal jest aktywny (strona pojawia sie tam), brakujacy (sygnal jest nieobecny), slaby (sygnal jest tam, ale slabo dziala) lub n/d, gdy pytanie nie ma zastosowania dla wzorca.
To wlasnie mamy na mysli mowiac “dane ruchu LLM napedzaja dzialanie”. Gdy trzy sygnaly siedza obok siebie, kazdy wzorzec wskazuje na konkretny rodzaj pracy, wiec zespol moze priorytezowac zmiane do wyslania w tym tygodniu i sprawdzic wplyw w nastepnym tygodniu.
Jak benchmarkowac swoje pokrycie tresci dla treningu i cytatow
W erze Google Search indeksacja byla fundamentalna metryka zdrowia. Zanim strona mogla sie pozycjonowac, zarabiac klikniecia lub konwertowac, musiala byc w indeksie. Pokrycie to ta sama metryka dla ery LLM, i zasluguje na sledzenie jako wlasna rzecz, niezlozona w zaden z sygnalow.
Pokrycie to procent tresci, na ktorej ci zalezy, ktora AI faktycznie czyta i uzywa. To najblizsze do liczby gwiazdy polarnej dla kanalu AI, poniewaz znajduje sie powyzej kazdego innego sygnalu. Jesli model nie wchlonal twojej strony, AI nie moze jej cytowac. Jesli strona nie jest cytowana, AI nie moze do niej wyslac uzytkownika. Pokrycie to brama, ktora decyduje, czy reszta lejka jest w ogole mozliwa.
Traktowanie pokrycia jako wlasnej metryki, odrebnej od kazdego z trzech sygnalow, sprawia, ze kanal AI staje sie mierzalny w sposob, ktory zespoly zaznajomione z wyszukiwaniem organicznym juz rozumieja. Pytanie zmienia sie z “czy jestesmy indeksowani” na “czy wystarczajaco wlasciwej tresci dociera do odpowiedzi”. Pokrycie dzieli sie czysto wzdluz pierwszych dwoch sygnalow.
Benchmark pokrycia treningu
Najpierw zdefiniuj swoj wszechswiat tresci rekordu. Dla zespolu e-commerce to zazwyczaj wszystkie aktywne strony produktow, wszystkie strony kategorii i wszystkie przewodniki evergreen. Dla wydawcy to archiwum artykulow plus strony docelowe referencyjne i tematyczne. Wszechswiat to mianownik.
Nastepnie zapytaj: w ciagu ostatnich 30 dni, jaki procent tych URL-i zostal pobrany co najmniej raz przez zweryfikowany crawler treningowy z dowolnego z glownych silnikow AI? To twoje 30-dniowe pokrycie treningu. Zdrowa strona z rozsadnym linkowaniem wewnetrznym i czysta sitemapa powinna dzialac na 90 procent lub wyzej. Ponizej tego masz problem z odkrywalnoscia: boty nie moga znalezc lub nie wracaja do znaczacej czesci twojego inwentarza.
Nastepnie podziel te sama liczbe wedlug silnika AI. Pokrycie na silnik to miejsce, gdzie zyje dzwignia. OpenAI moze pokrywac 95 procent, podczas gdy Google pokrywa 40 procent, a Anthropic pokrywa 70 procent. Ten rozrzut mowi ci dokladnie, gdzie inwestowac w dostep specyficzny dla powierzchni (przeglad robots.txt, zgloszenie sitemap, ulepszenia danych strukturalnych) i ktore modele beda dokladnie kontra slabo reprezentowac twoja marke, gdy przyszly uzytkownik zapyta.
Benchmark pokrycia cytatow
Pokrycie cytatow buduje sie w ten sam sposob, ale w stosunku do wezszego mianownika: twojej tresci jakosci referencyjnej, stron, ktorych spodziewalbys sie, ze AI bedzie cytowalo, gdyby rozumialo twoja strone poprawnie. Dla zespolu e-commerce to zazwyczaj przewodniki, porownania i tresc w stylu FAQ, a nie same strony produktow. Dla wydawcy to twoje artykuly evergreen i referencyjne.
Zapytaj: w ciagu ostatnich 30 dni, jaki procent tych URL-i referencyjnych otrzymal co najmniej jedno pobranie na zywo z ChatGPT, Claude lub Perplexity? To twoje 30-dniowe pokrycie cytatow. Strona, ktorej tresc referencyjna jest dobrze ustrukturyzowana, dobrze zatytulowana i wzbogacona JSON-LD, powinna dzialac na 60 do 80 procent. Ponizej 40 procent to problem cytowalnosci, prawie zawsze rozwiazywalny przez jasniejsze tytuly, lepsze opisy, tekst w stylu FAQ i wiecej danych strukturalnych.
Nastepnie podziel wedlug asystenta. ChatGPT bedzie dominowal objetoscia na wiekszosci stron; Claude bedzie niedoreprezentowany w kazdym narzedziu, ktore nie obsluguje poprawnie nieweryfikowalnego ruchu botow; Perplexity bedzie nadindeksowany na strukturalnej tresci produktowej i referencyjnej.
Jak wyglada zdrowie ogolnie
Dokladne progi roznia sie wedlug glebokosci archiwum, mieszanki tresci i publicznosci, ale wzorzec zdrowego profilu jest wystarczajaco spojny, aby publikowac:
- Pokrycie treningu twoich 100 glownych stron: na lub blisko 100 procent w oknie 30-dniowym, z co najmniej trzema do czterech silnikow AI aktywnie pobierajacymi.
- Pokrycie cytatow twojej tresci jakosci referencyjnej: 60 do 80 procent w oknie 30-dniowym. Ponizej 40 procent wskazuje na luki cytowalnosci w tytulach, opisach i danych strukturalnych.
- Glowne strony cytatow: tresc evergreen, szczegolowa, jakosci referencyjnej. Strona glowna nie powinna byc w top 20.
- Koncentracja cytatow: 60 do 80 procent wszystkich cytatow na twoich 30 glownych stronach jest normalne. Koncentracja tylko na twoich top 5 oznacza, ze twoja powierzchnia referencyjna jest zbyt waska. Jesli twoje liczby ostro odbiegaja od tego wzorca, diagnoza to zazwyczaj luki w danych strukturalnych, tresc, ktora model nie uwaza za cytowalna, lub problem pokrycia, ktory linkowanie wewnetrzne i sitemapy moga naprawic.
Dla podstawowego wprowadzenia do widocznosci AI przed czymkolwiek z tego, zobacz Zrozumienie widocznosci AI. Dla frameworka siedmiu KPI, ktory czysto mapuje na model trzech sygnalow, zobacz Metryki wydajnosci AI: siedem KPI, ktore kazda marka powinna sledzic.
Przestan szacowac, zacznij aktywowac
Gdy ruch LLM jest raportowany jako pojedyncza liczba, traci sie wiele uzytecznego kontekstu. Mocna tresc moze wygladac na cichsza niz jest naprawde, poniewaz wiekszosc jej wplywu lapie sie poza narzedziem analitycznym. Obiecujaca wydajnosc trudno przesledzic do aktywnosci wstepnej, ktora ja zarobila. Zespoly konca opieraja sie na sygnalach posrednich, poniewaz bezposrednie nie sa jeszcze widoczne.
Trzy sygnaly na twojej stronie wypelniaja ten obraz. Trening pokazuje ci, co AI wchlania o twojej marce i tresci. Cytaty pokazuja ci, ktore strony AI siega, aby odpowiedziec na prawdziwe pytania w czasie rzeczywistym. Polecenia pokazuja ci uzytkownikow o wysokiej intencji, ktorych AI wysyla. Powyzej wszystkich trzech siedzi pokrycie, ekwiwalent ery LLM dla indeksacji i brama, ktora decyduje, czy reszta lejka jest w ogole mozliwa.
Czytane razem, trzy sygnaly daja zespolowi jasny wzorzec miedzysygnalowy, na ktorym mozna dzialac co tydzien. Gwiazdy AI to strony do ochrony, luki cytowania to strony do przepisania, problemy klikalnosci wskazuja na predkosc ladowania i ujecie fragmentu, a luki pokrycia wskazuja na odkrywalnosc. Off-site, Share of Voice to uzyteczny benchmark kierunkowy dla rozmow odbywajacych sie w odpowiedziach AI, ale do mierzenia rzeczywistego wplywu wydajnosci, on-site model trzech sygnalow jest tym, wokol czego uwazamy, ze marki powinny sie orientowac, gdy inwestuja we wzrost kanalu AI.
Razem przeksztalcaja kanal AI z czegos do oszacowania w cos, na czym twoj zespol moze planowac, mierzyc i dzialac z pewnoscia.
Wszystkie trzy sygnaly w jednym dashboardzie
Dashboard ponizej laczy trzy sygnaly on-site w jednym widoku, a pokrycie tresci jest sledzone obok jako brama upstream. Crawl szkoleniowe laduja na strone, cytowania dziela sie wedlug silnika, a polecenia sa atrybuowane od poczatku do konca az do przychodu.