← All Articles

Ruch z LLM to martwe pole w Twojej analityce. Oto dlaczego.

Wyniki testów atrybucji ruchu z LLM w ChatGPT, Gemini i Claude na aplikacjach mobilnych, przeglądarkach mobilnych, Macu i Windowsie

Twój kanał AI rośnie. Twoja analityka nie nadąża.

ChatGPT, Gemini, Claude, Perplexity i inne LLM generują więcej ruchu, niż myślisz. Wolumen nie sączy się powoli, przyspiesza w tempie, które zaczyna rywalizować z ugruntowanymi kanałami. Niektórzy analitycy szacują, że ruch polecający z AI może przewyższyć tradycyjne polecenia z wyszukiwarek do 2028 roku. Sądzimy, że w niektórych witrynach już się to dzieje.

Ten artykuł wyjaśnia dlaczego, wykorzystując praktyczne testy na urządzeniach mobilnych i desktopowych, tryby debugowania przeglądarki, logowanie żądań po stronie serwera oraz inne techniki na trzech wiodących platformach LLM: ChatGPT, Gemini i Claude.


Najpierw zrozum, gdzie są Twoi użytkownicy

Zanim przejdziemy do tego, co się psuje i kiedy, warto zrozumieć skalę problemu w podziale na typy urządzeń.

Mobile jest dominującą platformą dla ruchu webowego. Według Cloudflare Radar, który śledzi żądania HTTP w sieci obsługującej ponad 20% całego globalnego ruchu webowego, urządzenia mobilne odpowiadają za około 50% wszystkich żądań webowych. Tę liczbę najlepiej traktować jako dolną granicę: sieć Cloudflare przenosi znaczny wolumen ruchu API, usług B2B i narzędzi deweloperskich, co wszystko przechyla ją mocno w stronę desktopu. Ruch webowy skierowany do konsumentów działa znacznie wyżej na mobile. W kontach GA4, z którymi pracujemy na co dzień, mobile zwykle odpowiada za gdzieś pomiędzy 70% a 90% wszystkich sesji. Ruch z desktopu jest rzeczywisty, ale drugorzędny.

~50%
globalnych żądań webowych pochodzi z urządzeń mobilnych
Cloudflare Radar
70–90%
sesji na witrynach konsumenckich to sesje mobilne
GA4 accounts, WISLR client data
20%+
globalnego ruchu webowego przechodzi przez sieć Cloudflare
Cloudflare Radar
2028
przewidywany rok, w którym polecenia z AI mogą przewyższyć tradycyjne wyszukiwanie
Analyst estimates

Mobile to miejsce, gdzie atrybucja LLM zawodzi najpełniej. Urządzenie, z którego korzysta większość Twojej publiczności, to urządzenie, na którym pomiar jest najbardziej zepsuty.


Co testowaliśmy

Aby zrozumieć dokładnie, gdzie śledzenie się psuje, przeprowadziliśmy praktyczne testy na urządzeniach mobilnych i desktopowych, korzystając z natywnych aplikacji i przeglądarek webowych dla ChatGPT, Gemini i Claude. Testy przeprowadzono na iPhonie z najnowszą wersją iOS, urządzeniu Android z najnowszą wersją Androida, Macu z najnowszą wersją macOS oraz na PC z Windowsem w najnowszej wersji.

Dla każdego scenariusza sprawdzaliśmy, czy parametry UTM były obecne, czy referrer był przekazywany do witryny docelowej i czy tożsamość sesji utrzymywała się, gdy użytkownik przechodził z interfejsu LLM do standardowej przeglądarki.

Oto, co ustaliliśmy.


Wyniki w pigułce

PlatformaUrządzenieInterfejsUTM obecneReferrer obecnyŚledzalne
ChatGPTMobileAplikacja Tak
utm_source=chatgpt.com
Nie Częściowo
ChatGPTMobilePrzeglądarka Tak Tak Tak
ChatGPTMac / WindowsAplikacja Tak
utm_source=chatgpt.com
Nie Tak
ChatGPTMac / WindowsPrzeglądarka Nie Tak Tak
GeminiMobileAplikacja Nie Nie Nie
GeminiMobilePrzeglądarka Nie Nie Tak
GeminiMac / WindowsPrzeglądarka Nie Tak Tak
ClaudeMobileAplikacja Nie Nie Nie
ClaudeMobilePrzeglądarka Nie Nie Tak
ClaudeMac / WindowsAplikacja Nie Nie Nie
ClaudeMac / WindowsPrzeglądarka Nie Nie Nie
Notka 01 · Flaga "częściowo"

Wiersz aplikacji mobilnej ChatGPT jest oznaczony jako częściowy, ponieważ mimo że UTM jest obecny, realistyczna podróż użytkownika, czyli odkrycie czegoś w aplikacji i konwersja później w przeglądarce urządzenia, oznacza, że UTM rzadko przetrwa do momentu konwersji. Nasze oszacowanie to gdzieś od 10% do 20% przypadków.

Notka 02 · Dlaczego wiersze śledzalne wprowadzają w błąd

Wszystkie wiersze przeglądarkowe pokazują się jako śledzalne, ale większość użycia LLM na urządzeniach mobilnych odbywa się przez natywne aplikacje, a nie przeglądarkę. Scenariusze śledzalne to mniejszość. Wiersze aplikacji, gdzie śledzenie w dużej mierze zawodzi, to to, czego w rzeczywistości doświadcza większość Twojej publiczności.


Mobile: gdzie jest większość ruchu i gdzie śledzenie się psuje

Powyższa tabela dość wyraźnie opowiada tę historię. Dla aplikacji mobilnych sygnał śledzenia jest niski lub zerowy. Ale dlaczego?

Odpowiedzią jest widok internetowy i warto zrozumieć, co to właściwie oznacza, zanim przejdziemy do specyfiki platform.

Gdy użytkownik stuka w link wewnątrz mobilnej aplikacji LLM, czy to ChatGPT, Gemini czy Claude, link zwykle otwiera się w odizolowanej przeglądarce w aplikacji zwanej widokiem internetowym. Ten widok internetowy nie współdzieli plików cookie, danych sesji ani tożsamości z natywną przeglądarką urządzenia. Jakikolwiek stan śledzenia zostanie ustanowiony wewnątrz tego widoku internetowego, pozostaje tam uwięziony.

Praktyczna konsekwencja: gdy użytkownik kończy przeglądanie w aplikacji LLM i później otwiera swoją zwykłą przeglądarkę urządzenia, aby kontynuować badania lub dokonać konwersji, nie ma żadnej ciągłości. Brak wspólnej tożsamości. Brak przekazania sesji. Ta wizyta staje się nieprzypisanym ruchem bezpośrednim.

ChatGPT na mobile to najbardziej śledzalna z testowanych opcji. Aplikacja przekazuje utm_source=chatgpt.com w linkach wychodzących i technicznie istnieje ścieżka do atrybucji, ale zależy ona od sekwencji zdarzeń, która nie jest zbyt prawdopodobna. Aby ten UTM przetrwał aż do konwersji, użytkownik musiałby stuknąć w link wewnątrz ChatGPT, przejść do widoku internetowego w aplikacji, a następnie świadomie stuknąć w “Otwórz w przeglądarce”, aby przekazać sesję do swojej natywnej przeglądarki przed dalszym nawigowaniem. Zwróć uwagę, że ta podróż utrzymuje sesję tylko na urządzeniach z Androidem. Na iOS nawet to obejście przerywa ciągłość sesji.

W praktyce ktoś odkrywa Cię w ChatGPT. Czyta o Tobie, może przez chwilę klika do Twojej witryny i rusza dalej. Później, może godzinę później, może dwa dni później, wyszukuje Cię w Google lub po prostu wpisuje bezpośrednio Twój URL i wtedy może rozpocząć proces konwersji. Ta sesja nie niesie żadnego śladu interakcji z ChatGPT, która zapoczątkowała całą sprawę. UTM zniknął. Referrer zniknął. GA4 rejestruje to jako bezpośrednie lub organiczne wyszukiwanie, a ChatGPT nie otrzymuje żadnej zasługi. I tak, jest to prawdą nawet jeśli masz włączone funkcje śledzenia takie jak Google Signals w swojej usłudze GA4.

Gemini i Claude na mobile nie przekazują ani parametrów UTM, ani referrera w żadnym testowanym scenariuszu. Sesje z tych platform trafiają jako czysty ruch bezpośredni. Nie ma żadnego sygnału łączącego je z powrotem do LLM, który je wygenerował.

Jeden niuans wart odnotowania: jeśli użytkownik odkrywa witrynę i dokonuje konwersji wewnątrz widoku internetowego, istnieje wewnętrzna ciągłość sesji w tym odizolowanym kontekście. Widok internetowy zachowuje własne pliki cookie między sesjami, więc podróż zakończona w całości wewnątrz aplikacji jest teoretycznie mierzalna. Standardowe ograniczenia śledzenia plików cookie nadal obowiązują, a to, jak często użytkownicy kończą pełną pętlę konwersji wewnątrz widoku internetowego aplikacji, jest samo w sobie otwartą kwestią wartą zbadania.


Desktop: lepiej, ale nadal niespójnie

Desktop oferuje korzystniejsze warunki śledzenia niż mobile, ale obraz jest nadal rozdrobniony w zależności od tego, której platformy i interfejsu używasz.

W przeciwieństwie do mobile, desktopowe aplikacje LLM nie uwięziają linków w odizolowanych widokach internetowych. Przekazują linki wychodzące bezpośrednio do domyślnej przeglądarki użytkownika. Tak więc problem izolacji widoku internetowego nie dotyczy desktopu. To, co nadal ma zastosowanie, to to, czy platforma w ogóle przekazuje UTM lub referrer, a w tej kwestii wyniki są mieszane.

ChatGPT na desktopie (natywna aplikacja) przekazuje utm_source=chatgpt.com w linkach wychodzących, najbardziej niezawodny scenariusz desktopowy spośród wszystkich testowanych platform. ChatGPT w przeglądarce przekazuje referrera, ale nie UTM.

Gemini nie ma aplikacji desktopowej dla Maca ani Windowsa. Całe desktopowe użycie Gemini odbywa się przez przeglądarkę. Gemini w przeglądarce przekazuje referrera, ale nie UTM, ta sama historia co w przeglądarce ChatGPT.

Claude jest najsłabszym wykonawcą we wszystkich scenariuszach desktopowych. Natywna aplikacja desktopowa nie przekazuje ani UTM, ani referrera. Claude w przeglądarce również nie przekazuje żadnego z tych sygnałów. Każda sesja z Claude na desktopie trafia jako całkowicie nieprzypisany ruch bezpośredni, niezależnie od tego, jak użytkownik do niej dotarł.


Problem spiętrzający się: nawet dobra atrybucja nie zawsze dociera do konwersji

Załóżmy przez chwilę, że śledzenie działa. UTM jest wypełniony, referrer jest obecny, sesja jest atrybuowalna. Mógłbyś pomyśleć, że jesteś zabezpieczony.

Nie jesteś.

Droga od interakcji z LLM do zakończonej konwersji rzadko jest pojedynczą sesją. Użytkownik odkrywa coś przez ChatGPT na swoim telefonie w ciągu dnia. Klika w link, trafia na stronę, przegląda przez kilka minut. Wychodzi bez konwersji. Dwa dni później wraca na swoim laptopie, aby dokończyć. W tym momencie pierwotny UTM mógł wygasnąć, urządzenie może być inne, pliki cookie mogły zniknąć.

Wygasanie plików cookie, podróże międzyurządzeniowe i ścieżki wielosesyjne każdorazowo niezależnie psują atrybucję. Razem sprawiają, że nawet ta część sesji kierowanych przez LLM, które zostaną poprawnie oznakowane w pierwszym punkcie styku, rzadko otrzyma zasługi za ostateczną konwersję.

Nie jest to problem unikalny dla ruchu z LLM. Ale tutaj uderza mocniej, ponieważ odkrywanie wspomagane przez LLM zwykle odbywa się wcześniej w procesie rozważania zakupu: ludzie badają i eksplorują, nie są gotowi do zakupu. Luka między tą pierwszą wizytą pod wpływem AI a ostateczną konwersją jest dłuższa niż typowe okno od kliknięcia płatnego do konwersji, co pogarsza problem międzyurządzeniowy.


Co to oznacza dla Twoich danych

Dołóżmy do tego przybliżone liczby. Celem nie jest fałszywa precyzja: celem jest rozsądny przedział, który pomoże Ci zrozumieć skalę tego, co prawdopodobnie tracisz.

Zacznij od podziału urządzeń. Cloudflare Radar określa globalny mobilny ruch webowy na około 50% wszystkich żądań HTTP, a ta liczba jest zaniżona dla publiczności konsumenckiej, ponieważ sieć Cloudflare przenosi intensywną mieszankę ruchu API i deweloperskiego. W kontach GA4, z którymi pracujemy, mobile zwykle stanowi 70% do 90% sesji. Używamy tu 70%, aby pozostać konserwatywnymi.

Pojawia się pytanie, jak ludzie rzeczywiście używają LLM na swoich telefonach. Nie każdy używa natywnej aplikacji. Niektórzy korzystają z ChatGPT, Gemini lub Claude przez przeglądarkę mobilną, a użycie przeglądarki jest znacząco bardziej śledzalne. Dwa założenia definiują przedział.

Założenia bazowe użyte w obu przypadkach:

  • Podział mobile/desktop: 70% mobile, 30% desktop
  • Wskaźnik przetrwania sygnału z aplikacji: 20% kliknięć w aplikacji mobilnej przekazuje użyteczny sygnał (np. użytkownik Androida stuka w “Otwórz w przeglądarce” lub konwersja następuje wewnątrz widoku internetowego)
  • Utrata na ścieżce konwersji: kara 25% zastosowana za utratę sygnału z powodu przeskoków międzyurządzeniowych i wygasłych plików cookie
  • Czynnik Google AIO: rosnąca część odkrywania pod wpływem AI odbywa się teraz przez Google AI Overviews i AI Mode, które GA4 rejestruje jako standardowe wyszukiwanie organiczne bez możliwości oddzielenia
Przypadek A · Optymistyczny
Podział 50/50 użytkowników mobilnych pomiędzy aplikacją LLM a przeglądarką mobilną.
Twój pulpit pokazuje
~40%
Twojego rzeczywistego ruchu z LLM
Rzeczywisty ruch jest ~2,5× wyższy
Rozbicie: Aplikacje (35% × 20% sygnału) = 7%. Przeglądarki (35% w pełni śledzalne) = 35%. Desktop (30% × ~50%) = 15%. Poziom kliknięć: 57%. Po 25% utracie: ~43%. Błędna klasyfikacja AIO jeszcze bardziej obniża wynik.
Przypadek B · Pesymistyczny
80% użytkowników mobilnych w aplikacji LLM, 20% w przeglądarce mobilnej.
Twój pulpit pokazuje
~20–25%
Twojego rzeczywistego ruchu z LLM
Rzeczywisty ruch jest ~4–5× wyższy
Rozbicie: Aplikacje (56% × 20% sygnału) = 11%. Przeglądarki (14% w pełni śledzalne) = 14%. Desktop (30% × ~50%) = 15%. Poziom kliknięć: 40%. Po 25% utracie: ~30%. Błędna klasyfikacja AIO jeszcze bardziej obniża wynik.

Zakres

Powyższe założenia są szacunkami, swobodnie podstaw liczby, które lepiej odzwierciedlają Twoją publiczność lub Twoje założenia. Użyj innego podziału mobile, innego stosunku aplikacja/przeglądarka, innego wskaźnika utraty. Model nie ma być precyzyjny. Ma pokazywać, że niezależnie od tego, jakie rozsądne liczby wybierzesz, wniosek jest ten sam: zachodzi znaczące zaniżanie raportów, a luka jest wystarczająco duża, aby mieć znaczenie.

Model interaktywny
Oszacuj własne niedomiarowanie
Udział mobile w ruchu70%
Udział użytkowników mobilnych w aplikacji LLM50%
Wskaźnik przetrwania sygnału z aplikacji20%
Przechwytywanie sygnału na desktopie50%
Utrata na ścieżce konwersji25%
Twój pulpit pokazuje
~43%
Twojego rzeczywistego ruchu z LLM
Rzeczywisty ruch jest ~2,3× wyższy
Rozbicie:
Aplikacje (35% × 20%) = 7%. Przeglądarki (35%) = 35%. Desktop (30% × 50%) = 15%. Poziom kliknięć: 57%. Po 25% utracie: ~43%.

Z naszymi założeniami zakres rozciąga się od mniej więcej 2,5x na optymistycznym końcu do 5x na bardziej pesymistycznym końcu, potencjalnie wyżej, gdy uwzględnisz sesje organiczne Google pod wpływem LLM, których nie da się oddzielić za pomocą standardowej analityki.

Jeśli Twój pulpit pokazuje, że 1,5% Twoich sesji pochodzi z LLM, prawdopodobne jest, że gdzieś pomiędzy 4% a 8% tych sesji faktycznie pochodziło z LLM, a ta liczba szybko rośnie. To cały kanał ukrywający się w Twoich raportach Bezpośredni i Organiczny.


Czy można to naprawić?

Częściowo. Nie ma pełnego rozwiązania, ale dostępne są znaczące ulepszenia dla zespołów gotowych zainwestować w bardziej zaawansowaną analitykę i śledzenie.

Śledzenie po stronie serwera oraz logowanie żądań mogą przechwycić sygnały, które JavaScript po stronie klienta pomija całkowicie. Narzędzia fingerprintingu urządzeń mogą utrzymywać probabilistyczną tożsamość w kontekstach widoku internetowego i przeglądarki na tym samym urządzeniu, częściowo nawiązując ponad luką izolacji, której standardowe śledzenie oparte na plikach cookie nie może pokonać. Żadne z podejść nie prowadzi do pełnego pomiaru i żadne nie rozwiązuje problemu międzyurządzeniowego bez stanu zalogowanego użytkownika kotwiczącego obie sesje razem.

Szczera odpowiedź: nigdy nie uzyskasz pełnego pomiaru. Architektura mobilnych systemów operacyjnych, zasady referrerów platform LLM i charakter wielosesyjnych podróży międzyurządzeniowych, wszystko to działa przeciwko temu. Ale to nie jest najważniejsza rzecz, którą należy zrozumieć o tym kanale.

Celem pomiaru nie jest idealne liczenie każdej konwersji: jest nim zrozumienie kierunkowe wystarczająco dobre, aby podejmować decyzje. Nie musisz przypisywać każdej konwersji wspomaganej przez LLM, aby wiedzieć, że ten kanał rośnie, że Twój udział w nim to coś, na co możesz wpływać, oraz że względne zmiany, które wprowadzasz do swojej strategii widoczności AI, pojawią się w Twoich liczbach. Jeśli Twój ruch polecony przez LLM podwoi się po zrestrukturyzowaniu treści pod lepsze cytowanie przez AI, ten ruch ma znaczenie, niezależnie od tego, czy możesz przypisać każdą sprzedaż konkretnej sesji czatu.

Ten artykuł nie jest argumentem za rezygnacją z pomiaru. Jest argumentem za niepozwalaniem, by niedoskonały pomiar stał się wymówką dla bezczynności. Zespoły, które traktują widoczność w AI jako poważny kanał wzrostu już teraz, nie gdy atrybucja będzie czystsza, nie gdy GA4 nadrobi, ale teraz, to zespoły budujące przewagę, którą będzie trudno zlikwidować.


Metodologia

Testy przeprowadzono na iPhonie z najnowszą wersją iOS, urządzeniu Android z najnowszą wersją Androida, Macu z najnowszą wersją macOS i PC z Windowsem w najnowszej wersji. Linux nie był testowany bezpośrednio, ale oczekuje się, że zachowuje się podobnie. Każda platforma LLM, ChatGPT, Gemini i Claude, była testowana poprzez swoją natywną aplikację (gdzie była dostępna) oraz poprzez przeglądarkę urządzenia. Dla każdego scenariusza sprawdzaliśmy, czy parametry UTM były wypełnione, czy referrer był przekazywany do witryny docelowej oraz czy tożsamość sesji utrzymywała się, gdy nawigacja przechodziła z interfejsu LLM do domyślnej przeglądarki urządzenia. Logowanie po stronie serwera zostało użyte jako uzupełnienie obserwacji po stronie klienta.

Te badania odzwierciedlają zachowanie platform w czasie testów (12 kwietnia 2026). Platformy LLM często aktualizują swoje aplikacje i interfejsy webowe, a zachowanie śledzenia może się zmienić.


Podsumowanie

Kanały AI to nie przyszły temat do rozważenia. Są aktywne teraz, rosną i kształtują decyzje na dużą skalę. Problem polega na tym, że infrastruktura, której większość zespołów używa do mierzenia tych kanałów, była zbudowana dla świata, w którym kliknięcie generowało wiarygodnego referrera i plik cookie, który trwał wystarczająco długo, aby zobaczyć konwersję.

Nie tak działa ruch z LLM.

Traktuj liczby dla swojego kanału AI jako znaczące zaniżenie. Sesje, które widzisz, to te, którym udało się przetrwać każdą warstwę utraty śledzenia. Te, którym się nie udało, są znacznie liczniejsze i obejmują osoby, które znalazły Cię, były pod wpływem tego, co AI o Tobie powiedziało, i dokonały konwersji bez pozostawienia jakiegokolwiek śladu, który mógłbyś prześledzić.

Często zadawane pytania

Dlaczego moje GA4 pokazuje prawie zerowy ruch z Claude lub Gemini?

Ponieważ obie platformy nie przekazują żadnych parametrów UTM ani referrera w zdecydowanej większości testowanych przez nas scenariuszy. Na urządzeniach mobilnych linki otwierają się w odizolowanych widokach internetowych w aplikacji, które nigdy nie łączą się z Twoim standardowym środowiskiem analitycznym. Na komputerach stacjonarnych Claude nie przekazuje niczego ani w aplikacji, ani w przeglądarce. Gemini przekazuje referrera w przeglądarce, ale nie przekazuje UTM. Bez żadnego z tych sygnałów większość tego ruchu trafia do GA4 jako bezpośredni lub po prostu nie jest liczona.

ChatGPT pokazuje w moich raportach pewien ruch. Czy to oznacza, że jest on śledzony dokładnie?

Niezupełnie. ChatGPT jest najbardziej śledzalną z trzech testowanych przez nas platform. Dodaje utm_source=chatgpt.com w kilku scenariuszach, a jego aplikacja desktopowa robi to niezawodnie. Ale na urządzeniach mobilnych droga do atrybucji jest wąska i zależna od platformy. UTM może przetrwać, jeśli użytkownik stuknie w “Otwórz w przeglądarce” wewnątrz widoku internetowego, ale to działa tylko na Androidzie. Na iOS to przekazanie w ogóle nie zachowuje sesji. Tożsamość zostaje utracona, gdy użytkownik opuszcza widok internetowy, niezależnie od tego, jak z niego wychodzi. Więc nawet w najlepszym przypadku potrzebujesz, aby użytkownik był na Androidzie, używał aplikacji i świadomie stukał w “Otwórz w przeglądarce” przed dalszą nawigacją. To mały wycinek Twojego faktycznego ruchu mobilnego z ChatGPT. Liczby, które widzisz w GA4, są prawdziwe, ale reprezentują ułamek tego, co ChatGPT faktycznie generuje.

Czy ten problem dotyczy tylko użytkowników mobilnych?

Na urządzeniach mobilnych jest najdotkliwszy, ale komputery stacjonarne też nie są czyste. Claude na komputerze nie przekazuje niczego we wszystkich testowanych scenariuszach, ani w aplikacji, ani w przeglądarce. Gemini na komputerze przekazuje referrera, ale nie przekazuje UTM, które mogą lub nie być zaklasyfikowane poprawnie w zależności od Twojej konfiguracji GA4. Aplikacja desktopowa ChatGPT to jeden wiarygodny jasny punkt. Więc nawet jeśli Twoja publiczność byłaby całkowicie na komputerach stacjonarnych, nadal pomijałbyś znaczącą część ruchu pod wpływem LLM.

Czym jest widok internetowy i dlaczego powoduje problemy ze śledzeniem?

Widok internetowy to przeglądarka w aplikacji, która otwiera się, gdy stukasz w link wewnątrz aplikacji mobilnej. Wygląda jak przeglądarka, ale jest odizolowana od rzeczywistej przeglądarki Twojego urządzenia. Nie współdzieli plików cookie, danych sesji ani tożsamości z Safari lub Chrome. Więc każde śledzenie, które uruchomi się wewnątrz widoku internetowego, pozostaje tam uwięzione. Gdy użytkownik później otwiera swoją prawdziwą przeglądarkę, aby kontynuować podróż, wygląda jak zupełnie nowy odwiedzający bez żadnej historii.

Jeśli ostateczna konwersja następuje wewnątrz widoku internetowego aplikacji, czy jest śledzona?

Może być, ale nie jest to czyste. Konwersja musi nastąpić wewnątrz widoku internetowego, aby łańcuch atrybucji się utrzymał. Użytkownik nie musi spędzać całej swojej podróży tam, ale ten ostatni krok tak. Haczyk polega na tym, że iOS stanowi większość ruchu mobilnego dla większości grup odbiorców, a na iOS widok internetowy podlega ograniczeniom plików cookie WebKit, w tym Intelligent Tracking Prevention. Te ograniczenia mogą ograniczać lub przerywać ciągłość, na której polegasz. Więc choć ten scenariusz jest teoretycznie śledzalny, w praktyce jest to najmniej zepsuta dostępna opcja, a nie niezawodna ścieżka.

Czy mogę to naprawić za pomocą śledzenia po stronie serwera?

Śledzenie po stronie serwera pomaga, ale nie rozwiązuje wszystkiego. Może przechwycić sygnały, które pomija JavaScript po stronie klienta, w tym dane referrera, które nigdy nie trafiają do GA4. Narzędzia fingerprintingu urządzeń mogą również pomóc, utrzymując probabilistyczną tożsamość w kontekstach widoku internetowego i przeglądarki na tym samym urządzeniu. Ale żadne z podejść nie rozwiązuje problemu międzyurządzeniowego i żadne nie daje Ci pełnego pomiaru. Zbliżysz się znacząco do prawdy, ale nie dotrzesz tam w pełni.

O ile faktycznie zaniżony jest ruch konwersji wspomaganej przez LLM?

Na podstawie naszej analizy, gdzieś w zakresie 2,5x do 5x, w zależności od Twojej publiczności i tego, jak używają platform LLM. Konserwatywne oszacowanie (Przypadek A) zakłada, że połowa użytkowników mobilnych korzysta z LLM przez przeglądarkę, gdzie śledzenie w dużej mierze działa, dając w przybliżeniu 2,5x zaniżenia po uwzględnieniu strat na ścieżce konwersji. Bardziej realistyczne oszacowanie (Przypadek B) zakłada, że 80% użytkowników mobilnych jest w natywnej aplikacji, gdzie śledzenie zasadniczo zawodzi, dając 4 do 5x zaniżenia. Oba oszacowania są prawdopodobnie nadal konserwatywne, ponieważ rosnąca część tego, co GA4 klasyfikuje jako organiczne Google, to w rzeczywistości ruch pod wpływem LLM docierający przez AI Overviews i AI Mode, ruch niemożliwy do oddzielenia za pomocą standardowej analityki.

Czy powinienem więcej inwestować w widoczność w AI, jeśli nie mogę zmierzyć wyników?

Tak, prawdopodobnie nawet bardziej, nie mniej. Fakt, że nie możesz zmierzyć pełnego wpływu tego kanału, nie oznacza, że wpływu nie ma. Oznacza, że Twoje obecne narzędzia są niedostatecznie wykwalifikowane, żeby go zobaczyć. Sesje, które docierają do Twoich raportów, już pokazują znaczące zaangażowanie. Te, które nie docierają, są o rzędy wielkości liczniejsze. Traktowanie tego kanału jako nieważnego, ponieważ liczby wydają się małe, to dokładnie zły wniosek.