← All Articles

Моніторинг LLM-трафіку: три сигнали (тренування, цитування, переходи)

Три сигнали LLM-трафіку: тренувальні обходи, цитати в розмові та переходи реальних користувачів, з покриттям контенту як попередньою брамою

Що таке насправді LLM-трафік

LLM-трафік часто обговорюється як єдине число, і це обрамлення залишає багато на столі. На вашому власному сайті AI-активність насправді з’являється як три окремих сигнали, які ви можете виміряти безпосередньо, кожен з яких створюється різним типом поведінки AI і кожен вказує на різну роботу. Четвертий сигнал, Share of Voice, вимірюється поза сайтом. Це менш надійний вимір продуктивності, але це підхід, який більшість команд використовує наразі для позасайтового перегляду. Оскільки команди фокусуються на зростанні AI-каналу, ми вважаємо, що бренди повинні орієнтуватися навколо цієї моделі трьох сигналів для вимірювання продуктивності.

3 сигнали
Тренувальні обходи, цитати в розмові та переходи реальних користувачів, кожен вимірюваний окремо
WISLR AI Channel Analytics
Сигнал 1 · Час тренування
Тренування LLM
OpenAI, Anthropic, Google і Common Crawl отримують ваші сторінки, щоб живити тренування моделі. Без живого користувача. Модель навчається тому, що знати про ваш бренд і контент.
Сигнал 2 · Жива розмова
Цитати в розмові
ChatGPT, Claude та Perplexity отримують вашу сторінку посеред розмови, щоб відповісти на запитання, яке хтось ставить просто зараз. Кожен запит - це живий момент наміру.
Сигнал 3 · Високий намір
Реальні користувачі
Хтось клікає на цитату з ChatGPT, Claude, Perplexity або Copilot і потрапляє на ваш сайт. Вони прибули після дослідження запитання, тому конвертуються за вищими показниками, ніж інші канали.

Кожен сигнал варто відстежувати окремо, упорядкований за тим, де знаходиться користувач, коли кожен з них відбувається: час тренування до того, як буде задіяний будь-який користувач, жива розмова, де користувач ставить запитання просто зараз, і клік, де користувач знаходиться на вашому сайті. Ця модель трьох сигналів захоплює, як AI насправді взаємодіє із сайтом, що потрібно видавцям та операторам e-commerce для прийняття рішень. Ми побудували AI Channel Analytics навколо тієї ж моделі.

Коли ви думаєте трьома сигналами замість одного числа, запитання, які команди ставлять найчастіше, як моніторити LLM-трафік, що належить до панелі та які числа найкорисніші, стають набагато легшими для відповіді.


Чому GA4 та інші клієнтські аналітичні інструменти мають з цим труднощі

Перш ніж заглибитись у сигнали, кілька слів про те, що існуючі аналітичні інструменти можуть і не можуть показати. GA4 - це домінуючий інструмент, і він має добре відомі обмеження, коли мова йде про AI-трафік. Ті ж обмеження стосуються Adobe Analytics, Mixpanel, Amplitude, Heap, Plausible, Fathom, Matomo та будь-якого іншого інструменту, який залежить від спрацьовування JavaScript-тега в реальному браузері. Причина архітектурна, а не налаштовувана, тому спроба іншого інструменту зазвичай приводить вас в те ж місце.

Ми розкрили повну картину для GA4 конкретно в LLM-трафік є сліпою плямою у вашій аналітиці, тому ось коротка версія. Кожен сигнал взаємодіє з клієнтською аналітикою по-різному.

  • Тренувальні обходи не видимі, оскільки боти не виконують JavaScript. Тренувальні запити OpenAI, Anthropic та Google AI не запускають клієнтські теги за дизайном. GA4, Adobe, Mixpanel, Amplitude, Heap та інструменти з пріоритетом приватності, такі як Plausible і Fathom, мають цю прогалину, оскільки жоден з них не реєструє запит, якщо браузер не запускає їхній тег.
  • Цитати в розмові відбуваються повністю поза вашим сайтом. AI отримує вашу сторінку на сервері від імені користувача та рендерить відповідь у чаті. Жоден браузер не відкривається, жодна аналітична подія не запускається, тому ця активність не з’являється в жодному клієнтському інструменті.
  • Переходи реальних користувачів частково видимі в кожному клієнтському інструменті, але зазвичай недораховуються в 2,5-5 разів. Мобільні LLM-додатки рендерять вихідні посилання в ізольованих WebView, які видаляють реферер. Gemini і Claude не передають жодного сигналу атрибуції на більшості перевірених платформ. Огляди AI Google групуються під органічним пошуком, що ускладнює їхнє розділення. Те ж групування з’являється однаково, чи звіт, який ви читаєте, у GA4, Adobe чи альтернативі з пріоритетом приватності.
2,5-5x
Недорахування GA4 сесій, переадресованих LLM, порівняно з серверною основною правдою, на основі практичного тестування у мобільних і десктопних сценаріях.
Тестування пристрою за пристроєм WISLR

Виправлення - це не кращий тег, чистіша стратегія UTM або перехід на інший клієнтський інструмент. Виправлення - це серверне фіксування на межі, класифіковане за user-агентом, верифікованим діапазоном IP та зворотним DNS, і зшите за поверхнею AI. Це єдиний спосіб побачити всі три сигнали одночасно, і це незалежно від того, який клієнтський аналітичний інструмент ви продовжуєте використовувати для решти трафіку.


Сигнал 1: Тренування LLM

Тренування LLM - це AI, що читає ваш бренд та контент, щоб живити наступну версію своїх моделей. Тренувальні краулери від OpenAI, Anthropic, Google, Common Crawl та ByteDance отримують ваші сторінки за безперервним розкладом, поглинають контент і вкочують його в наступний цикл тренування. Це основа кожної подальшої взаємодії. Якщо модель не поглинула вашу сторінку, вона не може цитувати вас, не може рекомендувати ваш продукт і не може надіслати вам користувача.

Це також сигнал, у який GA4 та будь-який інший клієнтський аналітичний інструмент мають нульову видимість. Тренувальні обходи видимі лише у ваших серверних логах запитів.

Тренувальні обходи AI зараз у масштабі пошукових двигунів

Контекст обсягу, який пропускає більшість команд: обсяг тренувальних обходів AI на типовому контентно-багатому сайті зараз конкурує з обсягом обходів від провідних пошукових двигунів. Тренувальні краулери OpenAI, Anthropic, Google, Common Crawl та ByteDance разом виробляють обсяги запитів того ж порядку, що Google Search і Bing разом узятим. На багатьох сайтах тренувальні запити AI вже перевищують запити пошукових двигунів за частотою.

~1:1
Співвідношення обсягу тренувальних обходів AI до обсягу обходів провідних пошукових двигунів на типовому контентно-багатому сайті. AI прибуває з тією ж інтенсивністю, з якою Google Search прибував останні двадцять років.
Серверні логи клієнтів WISLR

Це більше не другорядний або побічний канал сигналу. Краулери, які вирішують, що AI-інструменти знають про ваш бренд, прибувають з тією ж інтенсивністю, що і краулери, які вирішували, що Google Search знав про ваш бренд протягом останніх двадцяти років.

На що дивитись

З правильним відстеженням сигнал тренування розкладається на кілька вимірів, які мають значення для дії:

  • Щоденний обсяг за AI-двигуном у плаваючих 30-денних та усіх часових вікнах.
  • Покриття тренування як відсоток сторінок з високою цінністю на вашому сайті, розбитий за розділом.
  • Найбільш отримувані сторінки з посиланням, частотою оновлення та які поверхні AI їх тягнуть.
  • Підсумок типу сторінки, щоб ви могли побачити з першого погляду, чи AI читає ваші сторінки продуктів, ваші сторінки категорій, ваші статті, чи всі три.
  • Розбивка AI-двигуна. OpenAI може домінувати, тоді як AI-тренування Google мовчить; Anthropic може триматися вашого блогу, тоді як Common Crawl покриває каталог.
  • Типи медіа. Це вимір, який забуває більшість команд. Більше про це далі.

Медіа як тренувальні дані: за межами тіла статті

Найбільша прогалина в мисленні більшості команд полягає в тому, що тренування - це не тільки текст. AI-боти також отримують ваші зображення, відео та аудіо. Кожен з них є окремою тренувальною поверхнею, і кожен несе різну сигнальну цінність.

З кращим відстеженням ви можете відрізнити сторінки від не-сторінкових медіа, щоб побачити, що кожен AI-двигун насправді споживає:

Тип контенту Що поглинається Чому це важливо
Сторінки Текст основного тексту, заголовки, внутрішні посилання, схема на сторінці Безсумнівно найбільша частка обсягу тренування на більшості сайтів.
Зображення Сам файл зображення Впливає на те, чи з'являються ваші продукти у візуальних відповідях. Альтернативний текст і підписи поглинаються через запит сторінки, а не через запит зображення.
Відео Сам відеофайл Все частіше отримується, оскільки мультимодальні моделі стають звичними. Транскрипти та підписи поглинаються через запит сторінки, а не через запит відео.
Аудіо Сам аудіофайл Сліпа пляма для більшості видавців; багатий тренувальний матеріал. Нотатки до шоу та транскрипти поглинаються через запит сторінки, а не через запит аудіо.

Практичне значення: ваш альтернативний текст, транскрипти та схема на сторінці - це більше не просто SEO-гігієна. Це тренувальні вхідні дані. Чим вони чіткіші, тим точніше модель представляє ваш бренд і контент майбутньому користувачу. Сторона Shopify цієї історії, де канали продуктів та структуровані дані стають тренувальною поверхнею, описана в Shopify Agentic Plan: дані продуктів поза вашим контролем.

Важливі KPI

Відстежуйте це натомість
Верифікований обсяг тренувальних обходів за AI-двигуном
Приклад
OpenAI248K Anthropic142K Google91K
Останні 30 днів
Відстежуйте це натомість
Фактична частота отримання на ваших найкращих URL
Приклад
/guides/wide-feet-running412 / тиж /products/widefeet-pro184 / тиж /guides/best-trail-runners96 / тиж
Відстежуйте це натомість
Темп повторного обходу та відсоток покриття за розділом
Приклад
/articles/ Покриття розділу94% Повторний обхід кожні4 дні /products/ Покриття розділу78% Повторний обхід кожні11 днів
Відстежуйте це натомість
Пріоритезація типу сторінки (які розділи AI читає найбільше)
Приклад
Статті48% обходів Продукти31% обходів Категорії21% обходів

Правильне запитання для сигналу тренування - не “наскільки нас обходять”, а “чи правильний контент обходиться достатньо часто AI-двигунами, які мають значення”. Методологія переходу від сирих логів до цього запитання знаходиться в Поведінка AI-ботів: методологія аналізу логів.


Сигнал 2: Цитати в розмові, шар у реальному часі

Цитати в розмові - це AI, що отримує вашу сторінку посеред чату, щоб відповісти на живе запитання користувача. Це живі запити від ChatGPT, Claude та Perplexity. Кожен запит за визначенням є моментом, коли хтось задав запитання, і модель вирішила, що ваша сторінка є найкращою відповіддю. Це сигнал найвищого наміру з трьох сигналів, оскільки на запитання відповідається просто зараз.

Це також сигнал, який доводить, який контент насправді є якістю довідника на думку AI. Тренування каже вам, що було поглинено. Цитати кажуть вам, що використовується.

На що дивитись

Сигнал цитування розкладається за тими ж вимірами, що і сигнал тренування, але значення кожного з них зміщується:

  • Щоденний обсяг живих запитів на асистента. Сплеск на конкретній сторінці часто корелює з актуальним новинним циклом або новим запитанням порівняння, яке широко задається.
  • Покриття цитувань, частка вашого довідникового контенту, який отримувався принаймні раз в останньому вікні.
  • Найбільш отримувані сторінки з асистентом, який їх отримав. Сюрпризи тут є правилом, а не винятком. Сторінки, які AI цитує, рідко є сторінками, які ви очікували б.
  • Розбивка AI-поверхні. Різні асистенти надають пріоритет різному контенту. ChatGPT і Perplexity схильні віддавати перевагу структурованому продуктовому та довідниковому контенту; Claude схильний віддавати перевагу довгому пояснювальному письму.
  • Типи медіа. Живі запити цитування - це переважно сторінки; зображення та відео цитуються рідше, але зростають у міру того, як мультимодальні відповіді стають звичними.

Чому цей сигнал унікально цінний

Жива цитата - це найближче до голосу довіри, яке виробляє AI-екосистема. Це модель, яка каже перед реальним користувачем: “ця сторінка є правильним джерелом для цього запитання”. Якби ви відстежували лише один сигнал, це був би він.

Підступ полягає в тому, що нічого з цього не видно для GA4 чи будь-якого клієнтського інструменту, оскільки запит відбувається на сервері, а користувач ніколи не потрапляє на вашу сторінку. Єдиний спосіб побачити цитування - на межі.

Цитування проти Share of Voice (SOV)

Share of Voice - це позасайтова альтернатива, яку наразі використовує більшість команд, коли вони не можуть бачити серверні цитування. Це вимірювання того, як часто ваш бренд з’являється у відповідях AI у кошику представницьких запитів. Зростаюча категорія інструментів, включаючи Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar та AI-модулі в Semrush і BrightEdge, запитують ChatGPT, Claude, Gemini та Perplexity в масштабі, рахують згадки бренду та повідомляють про частку відносно конкурентного набору.

Це корисний напрямковий сигнал, але наша перевага для вимірювання продуктивності AI-каналу - це сигнал цитування вище, тому що він захоплює фактичні запити на рівні сторінки поверхнею, яка зробила запит. SOV має структурні сліпі плями, яких немає у цитувань.

SOV є ймовірнісним, цитати спостерігаються. AI-моделі дають різні відповіді на той самий запит залежно від налаштувань температури, контексту розмови та часу дня. Запустіть той самий запит двічі, і ви можете отримати два різні набори згадок бренду. Інструменти SOV пом’якшують це за допомогою вибірки та усереднення, але базова мінливість є реальною, а точність будь-якого окремого числа нижча, ніж припускає більшість звітів. Цитувальні дані, навпаки, - це серверний лог фактичних запитів: кожен з них стався, і кожен можна порахувати.

SOV вибирає запити; цитати закріплені до реальних розмов. Інструмент SOV запускає кошик запитів, які обрав аналітик. Реальні користувачі задають різні запитання, різними способами, з різним попереднім контекстом. Вибірка може або не може відповідати тому, що ваші клієнти насправді запитують, і більшість інструментів не роблять свій набір запитів прозорим. Жива цитата за визначенням походить від реального користувача, який задає реальне запитання, тому немає упередження вибірки.

Моделі змінюються. Кожен новий випуск моделі, налаштування системного запиту або зміна вилучення зміщує те, що цитується. Цифра SOV, виміряна щодо моделей минулого кварталу, є іншим вимірюванням, ніж взяте щодо моделей цього кварталу, і більшість інструментів не є прозорими щодо версіонування моделі у своїх звітах. Активність цитування адаптується в реальному часі, оскільки вона захоплюється безпосередньо із запиту, без шару виведення між ними.

Найчистіший спосіб використання SOV - поряд із сигналом цитування, а не як заміна. SOV - це напрямковий, позасайтовий бенчмарк того, як часто ваш бренд з’являється у відповідях. Цитати - це верифікований, на сайті запис того, які сторінки AI насправді використовував для їхнього виробництва. Використовувані разом, позасайтова симуляція та правда на сайті дають повнішу картину, ніж кожна окремо.

Важливі KPI

Відстежуйте це натомість
Верифіковані запити цитування на сторінку, на асистента
Приклад
Сторінка /guides/wide-feet
ChatGPT184 Perplexity92
Останні 30 днів
Відстежуйте це натомість
Частота цитувань на ваших найкращих довідникових сторінках
Приклад
/guides/agentic-commerce-10162 / тиж /guides/wide-feet-running38 / тиж /compare/perplexity-vs-chatgpt26 / тиж
Відстежуйте це натомість
Частка цитування за асистентом, тенденція тиждень за тижнем
Приклад
ChatGPT62%+4 п Perplexity24%-1 п Claude14%стабільно
Тиждень за тижнем
Відстежуйте це натомість
Концентрація цитувань за типом сторінки
Приклад
Посібники з порівняння52% цитувань Статті28% цитувань Огляди14% цитувань Інше6% цитувань

Типовий шаблон, взятий з реальних впроваджень видавців та e-commerce: невеликий набір вічнозелених сторінок виробляє більшість цитувань, тоді як головна сторінка рідко потрапляє в топ 50. Якщо модель вирішила, що ваш глибокий посібник з порівняння є правильною відповіддю на запитання, вона буде отримувати цю сторінку сотні разів на тиждень і взагалі не вашу головну сторінку. Це операційний сигнал, який ви хочете.


Сигнал 3: Реальні користувачі, перехід з високим наміром

AI-двигуни - це дослідницькі двигуни, а не канали переривання. Користувач, що клікає на цитату в ChatGPT, Claude, Perplexity або Copilot, вже задав своє запитання, оцінив відповідь і обрав вашу сторінку як наступний крок. Коли вони потрапляють на ваш сайт, вони далі по кривій розгляду, ніж користувач з будь-якого каналу, який їх перервав. У наших впровадженнях це перекладається на вищі показники конверсії та коротші вікна розгляду, ніж соціальні, дисплейні і часто навіть платний пошук. Обрамлення має значення, тому що користувачі, переадресовані AI, попередньо кваліфіковані до моменту, коли вони прибувають; для ширшого контексту шляху покупця див. AI - це дослідницький двигун, а не канал продажу.

Це також єдиний сигнал, який традиційний аналітичний інструмент може бачити взагалі, і сигнал, на який більшість команд за замовчуванням переходять, коли чують “LLM-трафік”. Це також сигнал, де прогалина WebView та прогалина без реферера Gemini/Claude змушують GA4 недозвітувати в 2,5-5 разів, тому високий намір залишається більш необлікованим, ніж будь-який інший канал на вашому сайті.

На що дивитись

  • Сесії за асистентом-джерелом, класифіковані на сервері, а не з опорою на заголовки реферера.
  • Розподіл цільових сторінок. Користувачі, переадресовані AI, схильні потрапляти на глибокі сторінки, а не на головну сторінку.
  • Показник конверсії за джерелом, порівняно з вашою органічною базою. У наших впровадженнях конверсія, переадресована AI, зазвичай вища за соціальну на сесію.
  • Вікна часу до покупки. Користувачі ChatGPT схильні конвертуватися того ж дня; користувачі Perplexity часто беруть від трьох до п’яти днів; Gemini знаходиться посередині.
  • Атрибуція доходу. Верифіковане зіставлення IP-замовлення для найчистіших випадків, ймовірнісне зіставлення для решти.

Як виміряти реферальний трафік від LLM в Google Analytics (чесна відповідь)

Коротка відповідь: ви не можете, повністю. UTM присутні з ChatGPT, але не з Gemini або Claude. Реферери присутні з настільних браузерів, але видаляються в мобільних додатках. AI Overviews з’являються під органічним пошуком без можливості розділення. Ви можете побудувати часткову картину, фільтруючи на utm_source=chatgpt.com та реферери chatgpt.com, claude.ai, perplexity.ai, gemini.google.com і copilot.microsoft.com, але ви будете дивитися на приблизно чверть фактичного трафіку.

Чесна відповідь полягає в тому, щоб захопити цей сигнал на сервері. Повна карта атрибуції з кожним тестом пристрою за пристроєм, які ми проводили, знаходиться в LLM-трафік є сліпою плямою у вашій аналітиці.

Мобільний - це місце, де прогалина атрибуції LLM найбільша

Ось частина недорахування переходів, яка має найбільше значення: пристрій, який використовує більшість вашої аудиторії, також є пристроєм, де атрибуцію AI найскладніше чітко побачити. Мобільний приводить 70-90 відсотків сесій сайтів, орієнтованих на споживачів, і це місце, де живуть LLM-додатки. На платформах, які ми тестували, мобільний - це найменш відстежувана поверхня для кожного важливого LLM.

Платформа Поверхня UTM Реферер Відстежуваний у GA4
ChatGPT Мобільний додаток Так
utm_source=chatgpt.com
Ні Частково
ChatGPT Мобільний браузер Так Так Так
Gemini Мобільний додаток Ні Ні Ні
Gemini Мобільний браузер Ні Ні Ні
Claude Мобільний додаток Ні Ні Ні
Claude Мобільний браузер Ні Ні Ні

Структурна причина полягає в тому, що мобільні LLM-додатки рендерять вихідні посилання в ізольованих WebView, які видаляють реферер і відключають сесію від будь-якого попереднього контексту браузера. Розумне запобігання відстеженню iOS WebKit ускладнює проблему на iPhone, де WebView підпадає під обмеження файлів cookie навіть тоді, коли конверсія відбувається всередині нього.

Результатом є те, що перегляд лише переходів LLM-трафіку в кінці-кінців виглядає переважно як настільний перегляд, навіть якщо фактична аудиторія переважно мобільна. Кросплатформенні порівняння, отримані з чисел GA4, легше інтерпретувати, коли ця мобільна прогалина враховується. Повна матриця пристрою за пристроєм, включаючи настільні сценарії, знаходиться в LLM-трафік є сліпою плямою у вашій аналітиці.

Важливі KPI

Відстежуйте це натомість
Кількість серверних сесій, переадресованих AI
Приклад
Серверне фіксування6 420 сесій Той самий період у GA41 840 сесій
Останні 30 днів
Відстежуйте це натомість
Показник конверсії проти вашої органічної бази
Приклад
AI4,8% Органічний2,9% Соціальний1,6%
Показник конверсії на сесію
Відстежуйте це натомість
Розподіл часу до покупки за джерелом
Приклад
ChatGPTТой самий день Gemini2-3 дні Perplexity4-5 днів
Відстежуйте це натомість
Дохід на сесію, на асистента
Приклад
ChatGPT$4,20 Perplexity$7,10 Gemini$3,40
Дохід на сесію

Для глибшого погляду на те, як це вписується в ширший шлях покупця, див. AI - це дослідницький двигун, а не канал продажу. Обрамлення має значення, тому що користувачі, переадресовані AI, часто є дослідниками в середині воронки, і оцінювання каналу лише на основі конверсії в тій же сесії недооцінить його.


Від сигналу до дії: як дані LLM-трафіку керують впливом

Вимірювання заробляє свою цінність лише тоді, коли веде до дії. З трьома сигналами, що відстежуються разом, два шаблони рекомендацій надійно з’являються з даних між сигналами, плюс безперервний журнал, який команда може вести про те, над чим працювали.

Свіжість контенту

Найкращі URL, обходжені для тренування за останні 30 днів, упорядковані за частотою отримання. Рекомендація пряма: тримайте їх точними, тому що моделі будуть вчитися тому, що зараз на сторінці, і відповідно представляти ваш бренд майбутнім користувачам. Застаріла сторінка, на якій OpenAI тренується кожну ніч, - це застаріла сторінка, яку ChatGPT неправильно представить для наступного циклу тренування.

Дія: переглядайте кожну топ-обходжену сторінку в повторюваному темпі, виправляйте все застаріле і ведіть запис того, що було переглянуто і коли, щоб свіжість стала відстежуваним робочим процесом, а не одноразовим аудитом.

Сторінки, обходжені, але не цитовані

Сторінки, які тренувальні AI-боти отримують, але які не виробили жодних цитувань і жодних переходів у тому ж вікні. Розділені на продукти і категорії для e-commerce, на типи статей для видавців. Це прогалина цитування, і це зазвичай шаблон з найвищим важелем для дії.

Боти прочитали сторінку. Модель не вибрала цитувати її. Виправлення - це майже завжди та сама сім’я змін: чіткіші заголовки, кращі описи, текст у стилі FAQ і JSON-LD, який називає продукт, аудиторію і відповідь на очевидне запитання.

Дія: перепишіть сторінку, щоб бути більш цитованою, потім відстежуйте сигнал цитування на цьому URL протягом наступних двох тижнів, щоб перевірити виправлення.

Карта дій між сигналами

Коли ви захопите всі три сигнали, з’являються чотири шаблони, і кожен вказує на конкретну роботу. Кожна клітинка показує, чи цей сигнал є активним (сторінка з’являється там), відсутнім (сигнал відсутній), слабким (сигнал є, але неефективний) або н/з, коли запитання не застосовується для шаблону.

Тренування Цитати Переходи Шаблон Дія
Активний Активний Активний Суперзірка AI Захистіть сторінку. Тримайте заголовок і текст стабільними, моніторте дрейф, заблокуйте JSON-LD.
Активний Відсутній Відсутній Прогалина цитування Перепишіть для споживання AI: чіткіші заголовки, кращі описи, текст у стилі FAQ, багатший JSON-LD.
Активний Активний Слабкий Проблема кліку Обрамлення цитати або завантаження сторінки втрачає користувача. Перевірте швидкість сторінки, чіткість героя і фрагмент, який AI цитує.
Відсутній н/з н/з Прогалина покриття Виправте можливість виявлення: robots.txt, карти сайту, внутрішні посилання та перевірки доступу за двигуном.

Це те, що ми маємо на увазі під “дані LLM-трафіку керують дією”. Коли три сигнали сидять поряд, кожен шаблон вказує на конкретний тип роботи, тому команда може пріоритизувати зміну для відправки на цьому тижні і перевірити вплив наступного тижня.


Як зробити бенчмаркінг вашого покриття контенту для тренування і цитувань

В епоху Google Search індексація була фундаментальною метрикою здоров’я. Перш ніж сторінка могла ранжуватися, отримувати кліки або конвертуватися, вона повинна була бути в індексі. Покриття - це та ж метрика для епохи LLM, і вона заслуговує на відстеження як власна річ, не складена в жоден з сигналів.

Порівняння полярної зірки
Епоха Google Search
Епоха LLM
Індексація (попередня брама)
Покриття (попередня брама)
Ранжування
Цитати
Кліки
Переходи

Покриття - це відсоток контенту, який вас цікавить, який AI насправді читає та використовує. Це найближче до числа полярної зірки для AI-каналу, тому що знаходиться перед кожним іншим сигналом. Якщо модель не поглинула вашу сторінку, AI не може цитувати її. Якщо сторінка ніколи не цитується, AI не може надіслати на неї користувача. Покриття - це ворота, які вирішують, чи можлива решта воронки взагалі.

Поводження з покриттям як власною метрикою, окремо від будь-якого з трьох сигналів, - це те, що робить AI-канал вимірюваним способом, який команди, знайомі з органічним пошуком, вже розуміють. Запитання змінюється з “чи нас обходять” на “чи достатньо правильного контенту досягає відповіді”. Покриття чисто розділяється вздовж перших двох сигналів.

Бенчмарк покриття тренування

Спочатку визначте свій контентний всесвіт запису. Для команди e-commerce це зазвичай усі активні сторінки продуктів, усі сторінки категорій і всі вічнозелені посібники. Для видавця це архів статей плюс довідникові і тематичні цільові сторінки. Всесвіт - це знаменник.

Потім запитайте: за останні 30 днів, який відсоток цих URL отримувався принаймні раз верифікованим тренувальним краулером від будь-якого з основних AI-двигунів? Це ваше 30-денне покриття тренування. Здоровий сайт з розумними внутрішніми посиланнями і чистою картою сайту повинен працювати на 90 відсотків або вище. Нижче цього у вас проблема з можливістю виявлення: боти не можуть знайти або не повертаються до значущої частки вашого інвентарю.

Потім розділіть те ж число за AI-двигуном. Покриття за двигуном - це місце, де живе важіль. OpenAI може покривати 95 відсотків, тоді як Google покриває 40 відсотків, а Anthropic покриває 70 відсотків. Цей розкид точно каже вам, куди інвестувати в доступ, специфічний для поверхні (перегляд robots.txt, надсилання карти сайту, покращення структурованих даних) і які моделі точно або погано представлятимуть ваш бренд, коли майбутній користувач запитає.

Бенчмарк покриття цитування

Покриття цитування будується тим же способом, але проти вужчого знаменника: ваш довідниковий контент, сторінки, які ви очікували б, що AI цитуватиме, якби правильно зрозумів ваш сайт. Для команди e-commerce це зазвичай посібники, порівняння і контент у стилі FAQ, а не самі сторінки продуктів. Для видавця це ваші вічнозелені і довідникові статті.

Запитайте: за останні 30 днів, який відсоток цих довідникових URL отримав принаймні один живий запит від ChatGPT, Claude або Perplexity? Це ваше 30-денне покриття цитування. Сайт, чий довідниковий контент добре структурований, добре названий і збагачений JSON-LD, повинен працювати на 60-80 відсотків. Нижче 40 відсотків - це проблема цитованості, майже завжди вирішувана чіткішими заголовками, кращими описами, текстом у стилі FAQ і більше структурованих даних.

Потім розділіть за асистентом. ChatGPT буде домінувати обсягом на більшості сайтів; Claude буде недопредставленим у будь-якому інструменті, який неправильно обробляє неперевіряємий бот-трафік; Perplexity буде надіндексований на структурованому продуктовому і довідниковому контенті.

Як виглядає здоров’я в цілому

Точні пороги змінюються залежно від глибини архіву, поєднання контенту і аудиторії, але шаблон здорового профілю достатньо узгоджений для публікації:

  • Покриття тренування ваших топ-100 сторінок: на або близько 100 відсотків у вікні 30 днів, з принаймні трьома-чотирма AI-двигунами, що активно отримують.
  • Покриття цитування вашого довідникового контенту: 60-80 відсотків у вікні 30 днів. Нижче 40 відсотків вказує на прогалини цитованості в заголовках, описах і структурованих даних.
  • Топ-сторінки цитування: вічнозелений, глибокий, довідниковий контент. Головна сторінка не повинна бути в топ-20.
  • Концентрація цитування: 60-80 відсотків усіх цитувань на ваших топ-30 сторінках є нормальним. Концентрація лише на топ-5 означає, що ваша довідникова поверхня занадто вузька. Якщо ваші числа різко відрізняються від цього шаблону, діагноз зазвичай - прогалини в структурованих даних, контент, який модель не вважає цитованим, або проблема покриття, яку внутрішні посилання і карти сайту можуть виправити.

Для фундаментального вступу до видимості AI перед будь-чим з цього див. Розуміння видимості AI. Для семи KPI-фреймворку, який чисто відображається на модель трьох сигналів, див. Метрики продуктивності AI: сім KPI, які повинен відстежувати кожен бренд.


Перестаньте оцінювати, починайте активувати

Коли LLM-трафік звітується як єдине число, втрачається багато корисного контексту. Сильний контент може здаватися тихішим, ніж є насправді, тому що більша частина його впливу падає поза аналітичним інструментом. Багатообіцяюча продуктивність важко відстежити до попередньої активності, яка її заробила. Команди в кінці-кінців спираються на непрямі сигнали, тому що прямі ще не видимі.

Три сигнали на вашому сайті заповнюють цю картину. Тренування показує вам, що AI поглинає про ваш бренд і контент. Цитати показують вам, до яких сторінок AI тягнеться, щоб відповідати на реальні запитання в реальному часі. Переходи показують вам користувачів з високим наміром, яких AI надсилає. Перед усіма трьома сидить покриття, еквівалент індексації епохи LLM, і ворота, які вирішують, чи можлива решта воронки взагалі.

Прочитані разом, три сигнали дають команді чіткий шаблон між сигналами для дії кожного тижня. Суперзірки AI - це сторінки для захисту, прогалини цитування - це сторінки для переписування, проблеми кліку вказують на швидкість завантаження і обрамлення фрагменту, а прогалини покриття вказують на можливість виявлення. Поза сайтом, Share of Voice - це корисний напрямковий бенчмарк для розмов, що відбуваються у відповідях AI, але для вимірювання реального впливу на продуктивність, модель трьох сигналів на сайті - це те, навколо чого, як ми вважаємо, бренди повинні орієнтуватися, інвестуючи в зростання AI-каналу.

Разом вони перетворюють AI-канал з чогось, що потрібно оцінити, на щось, на чому ваша команда може планувати, вимірювати і діяти з впевненістю.

Налаштуйте AI Channel Analytics

Усі три сигнали в одній панелі

Панель нижче об’єднує три сигнали на сайті в одному вигляді, а покриття контенту відстежується поряд як верхній вхідний шлюз. Тренувальні обходи приходять на сторінку, цитати розбиваються за рушієм, а перенаправлення атрибутуються наскрізно аж до доходу.

Перегляньте демо панелі

Часті запитання

Яка різниця між тренувальними обходами AI та запитами цитування AI?

Тренувальні обходи відбуваються у фоновому режимі та живлять дані для тренування моделей. AI-двигуни, такі як OpenAI, Anthropic, Google і Common Crawl, запускають їх за розкладом. Запити цитування відбуваються в реальному часі, коли користувач ставить запитання, а AI-асистент отримує сторінку від імені користувача, щоб відповісти. Агенти, які слід шукати у логах: ChatGPT-User, Claude-User та Perplexity-User. Тренування формує те, що AI знає про ваш бренд; цитування показують, що AI активно використовує для відповіді на запитання зараз.

Як я дізнаюся, чи цитується мій контент ChatGPT, Claude або Perplexity?

Повний спосіб - це фіксувати серверні логи запитів на межі та класифікувати їх за user-агентом і верифікованим діапазоном IP. ChatGPT-User, Claude-User та Perplexity-User ідентифікуються в запиті, тому серверне фіксування дає вам запис на сторінку, на асистента про те, коли кожен AI отримав сторінку для відповіді на живе запитання. Клієнтські аналітичні інструменти, такі як GA4, Adobe, Mixpanel, Amplitude, Heap, Plausible, Fathom і Matomo, не можуть бачити цей сигнал, оскільки запит ніколи не відкриває браузер і ніколи не запускає JavaScript-тег.

Що таке покриття контенту для LLM і чому це важливо?

Покриття контенту - це відсоток контенту, який вас цікавить, який AI-двигуни насправді читають та використовують. Воно функціонує як індексація для Google Search: воно знаходиться перед кожним іншим сигналом. Якщо AI не поглинув вашу сторінку, він не може цитувати її. Якщо він не цитував сторінку, він не може надіслати на неї користувача. Покриття - це фундаментальна метрика здоров'я для вимірювання AI-каналу і найближче до полярної зірки число для AI-каналу.

Що таке Share of Voice у пошуку AI і як це порівнюється з відстеженням цитувань?

Share of Voice - це позасайтове вимірювання того, як часто ваш бренд з'являється у відповідях, згенерованих AI, у вибірковому кошику запитів. Інструменти, такі як Profound, Otterly, Peec, Evertune, AthenaHQ, BrandRank.AI, Ahrefs Brand Radar та AI-модулі в Semrush і BrightEdge, запитують AI-двигуни в масштабі та повідомляють про відносну частку. Це корисно для конкурентного бенчмаркінгу, але є ймовірнісним і неповним, оскільки AI-відповіді не є детермінованими, а вибірка запитів обирається аналітиком. Відстеження цитувань, навпаки, - це верифікований серверний запис того, які сторінки AI насправді отримав, щоб відповісти на реальні запитання. Використовуйте Share of Voice для напрямкового бенчмаркінгу та цитування для вимірювання продуктивності.

Чому Google Analytics 4 недостатньо звітує про реферальний AI-трафік?

GA4 зазвичай недозвітує сесії, переадресовані AI, у 2,5-5 разів. Причина структурна, а не налаштовувана. Мобільні LLM-додатки рендерять вихідні посилання в ізольованих WebView, які видаляють реферер. Gemini і Claude не передають жодного сигналу атрибуції на більшості перевірених платформ. Огляди AI Google групуються під органічним пошуком без можливості їхнього розділення. Ті ж прогалини застосовуються до будь-якого іншого клієнтського аналітичного інструменту, оскільки проблема - це сама модель вимірювання за допомогою JavaScript-тега, а не інструмент.

Як користувачі, переадресовані AI, поводяться інакше, ніж органічний або соціальний трафік?

Користувачі, переадресовані AI, мають тенденцію конвертуватися за вищими показниками на сесію, ніж соціальні, і часто вище, ніж органічні, коли AI Overviews відокремлюються від органічних. Вони прибувають після дослідження запитання з AI, оцінки відповіді та вибору вашої сторінки як наступного кроку, тому вони далі по кривій розгляду, ніж користувачі з каналів, які їх перервали. Час до покупки змінюється залежно від AI-двигуна. Користувачі ChatGPT мають тенденцію конвертуватися того ж дня, користувачі Gemini беруть кілька днів, користувачі Perplexity часто беруть від трьох до п'яти днів. Скорочення вікна атрибуції для всіх з них недозвітує канал.

З чого почати, коли вимірювання AI-каналу нове для моєї команди?

Почніть з покриття контенту. Підтвердіть, що основні AI-двигуни, OpenAI, Anthropic, Google, Perplexity та Common Crawl, можуть досягти і активно читають контент, який має значення. Коли попередня картина чітка, додайте відстеження цитувань, щоб побачити, які сторінки AI насправді використовує для відповіді на запитання. Атрибуцію переходів додайте останньою, тому що число переходів без контексту покриття та цитування неможливо діяти. Покриття - це ворота, на яких сидить кожен інший сигнал, і починаючи там, ви будуєте основу, на якій решта фреймворку може зростати.