SEO оптимизация сайта под GPT — руководство (2025)
Узнай как получить огромный трафик
Попасть в рекомендации ChatGPT (в контекстные ответы, где ChatGPT упоминает сайты, YouTube-каналы, бренды, экспертов и т.п.) — тот запрос, который начали мне задавать клиенты. Это пользуется спросом уже сегодня, так как многие сайты начинают появляться в виде расширенных ответов.
GPT при формировании ответа может выводить источники материалов, которые он нашел.
Если же попросить чат найти объекты по запросу, он выводит практически аналог выдачи.
Из необычного, все ссылки из GPT идут снабженные UTM меткой “utm_source=chatgpt.com”. У каждого ИИ метка отличается. Подобные источники наверно уже стали появляться у вас в Гугл аналитике.
Ниже приведён полный список практических советов, как повысить шансы на попадание в такие рекомендации.
Виды AI выдачи
Спрос на эту тему вырос после последнего моего вебинара, где мы обсуждали, как отслеживать выдачу в GPT — и обнаружили интересную картину:
- В сравнении с органикой, трафик с ChatGPT составляет в районе 0,5% (на основе проанализированных 150 сайтов в базе SEOquick).
- Коэффициент конверсии в различных нишах отличался, но он был в 7 раз выше в сфере услуг (2,7% в Organic search и 21,2% в ChatGPT).
- Самый низкий коэффициент конверсии был в ретейл-сфере (интернет-магазинов) и составлял около 2,3% — при этом в Organic search он был 2,5%.
- Практически не было конверсий в Adult нише (секс-шопов) — там преимущественно информационный трафик.
- В сфере криптотрейдинга и бинарных опционов показатели по FTD (первые депозиты по кликам на аффилиат-ссылки) показали в 3,5 раз выше результативность в ссылках с ChatGPT. Среди контента преимущественно срабатывали узкоспециализированные инструкции.
Поэтому попадания в AI ответы объективно дают то, что нужно — продажи. И пока этот росток не вырос в дерево, все спешат застолбить место там до того, пока не придут конкуренты.
«Попадание в ответы AI» — очень общий термин: у разных систем свои форматы отображения и свои правила формирования этих блоков. Здесь не действует единый принцип как в классическом SEO — есть тонкости, которые важно учитывать при планировании контента.
AI Overviews (SGE) в Google
AI Overviews — это блоки с генеративными ответами, которые появляются над обычной органической выдачей Google. Пока что развернуто не во всех странах и не на всех языках. Содержимое формируется автоматически, на основе контента из открытых источников и поисковой выдачи. За алгоритм отвечает Gemini — новый AI от Google.
Согласно статистике Getstat ответ SGE генерируется в 23% случаях при информационных запросах, и минимально — при транзакционных запросах. Почти в 5% случаях он был в коммерческих запросах.
На самом деле в определенных тематиках AIO ответы могут доходить и до 50% в информационных запросах — в нише стоматологии по нашим исследованиям у нас оказалось из 1546 информационных ключевых слов 701 содержали AIO ответы при отслеживании в SERanking.
Ответ всегда в отличие от других AI — стандартизирован:
- Сводка (summary) из 1-2 абзацев.
- Средняя длина контента около 280-300 слов (в районе 2000 символов)
- Может содержать список, таблицу, ссылки на источники.
- Часто включает 2-3 ссылки (цитаты), откуда взят фрагмент текста.
Context Snippets в ChatGPT
При включённой функции «Поиск в интернете» ChatGPT использует выдачу Bing, Google, DuckDuckGo и API-источники для формирования ответа. Он не всегда показывает источник, но всё чаще — вставляет под ответом «линк» с пометкой utm_source=chatgpt.com
Именно ее можно отследить через Google Analytics по источнику трафика, и именно ради него сейчас мы пишем этот материал.
GPT вставляет ссылку, если:
- Контент полностью совпадает с intent запроса. Например, вы написали статью «Как выбрать стабилизатор для частного дома», и в ней есть список с моделями, критериями и рекомендациями. Тут важно быть не просто первым, кого найдет GPT, но и одним из немногих.
- Страница даёт законченную, точную мысль. К примеру, источником контента является инструкция с расписанными четко шагами, а GPT процитировал лишь ее часть. Или же в материале содержутся статистика, цифры, исследования.
- На странице есть правильный сниппет. GPT подхватывает description, title и первые H2/H3 — если в них уже содержится мини-ответ, он скорее всего возьмёт их как обоснование и покажет ссылку.
- Если тема требует нескольких точек зрения — например чем X лучше Y — он может показать несколько ссылок. Например — любой блок, где он захочет сослаться на отзывы на продукт.
- Если ответ собран как “франкенштейн” из разных источников.
Как пример для инструкции может быть показано до 11 ссылок, которые относятся к какому-то одному абзацу!
Grok
Малопопулярный чат в Украине и практически невидимый — он не снабжает свои ссылки. Если Grok ссылается на веб-страницу или пост на X, он указывает URL в исходном виде, без дополнительных параметров, таких как utm_source.
Ссылки обычно выделяются как Источник: и прописываются в виде ссылки-анкора.
Когда Grok добавляет ссылки:
- Если проводится поиск в реальном времени (например, через DeepSearch или при необходимости уточнения данных).
- Если ссылается на конкретные посты на X (бывший Твиттер) или веб-страницы, которые напрямую связаны с вашим вопросом.
- Если информация взята из общедоступных источников, таких как Википедия, новостные сайты или другие авторитетные ресурсы.
Другие AI чаты
Помимо самых популярных чатов, сегодня есть еще несколько. И хотя их трафик очень мал, но на них стоит остановиться.
Perplexity.ai
- Показывает список источников сразу внизу.
- Чаще всего берёт FAQ-формат, таблицы, списки, определения.
- Хорошо индексирует страницы с Schema.org/FAQPage, HowTo, Article.
Copilot (Bing AI)
- Ближе к Google SGE, но работает по запросу, а не по умолчанию.
- Показывает 3-5 ссылок с цитатами, часто формирует ответ списком.
Claude (Anthropic)
- Если разрешён интернет-доступ, тоже использует Bing/Google.
Наиболее «придирчив» к структуре контента и стилю.
Откуда GPT берет информацию
У модели GPT-4o есть два источника информации. Первый — это встроенные знания, то есть данные, на которых модель была обучена. Эти знания охватывают период до конца 2023 года, и они не обновляются — то есть если сайт, статья или другой контент не попали в обучающую выборку до этой даты, модель о них просто не знает. В эту обучающую базу входят данные из открытых источников: сайты, книги, статьи, форумы, техническая документация и т.д., особенно если они попадали в Common Crawl, Google Scholar, Википедию или часто цитировались. Соответственно, сюда уже попасть нельзя. Если ваш сайт отлично был продвинут в прошлом, то он там уже находится.
Второй источник — это поиск в интернете. С февраля 2025 года ChatGPT действительно получил возможность искать в интернете в реальном времени — но это доступно только в режиме с включённым поиском, и не всегда по умолчанию.
Поиск не работает как Google, это, скорее, комбинированный сканер: используются как поисковые системы, так и собственные механизмы обхода и анализа контента OpenAI (включая быстрые сканеры и API-доступы к базам данных).
То есть если ты публикуешь что-то новое в 2024–2025 году, модель не будет “знать” это из встроенных знаний, но может найти и использовать это, если пользователь включил функцию поиска и сформулировал вопрос так, чтобы система решила воспользоваться интернетом. Однако такие данные не запоминаются и не добавляются в основную базу знаний.
Поэтому, если цель — чтобы ChatGPT упоминал твой контент без необходимости искать его в интернете, важно, чтобы он был опубликован до конца 2023 года и попал в обучающие датасеты (особенно Common Crawl) либо чтобы он регулярно упоминался на крупных площадках, индексируемых в Google, где ChatGPT может его найти при реальном запросе через поиск.
Никто не может напрямую (даже GPT) проверить, есть ли конкретный сайт в обучающей базе GPT (в том числе GPT-4o). OpenAI также не публикует список всех сайтов, которые использовались при обучении моделей.
Однако могу сказать следующее:
- Если ваш сайт открыт для индексации (не закрыт через robots.txt) и существовал до 2023 года, он с высокой вероятностью попал в Common Crawl или другие публичные датасеты, которые используются при обучении моделей GPT.
- Если на сайте публиковались статьи, гайды, обзоры — и особенно если они упоминались на сторонних ресурсах (форумы, блоги, соцсети) — вероятность попасть в обучение ещё выше.
- Сам факт существования сайта ещё не гарантирует, что он “попадёт в ответ”. GPT-4 может не использовать его напрямую, если он не цитировался в массовых источниках или не имеет явно выраженной структуры экспертного контента, который хорошо «считывается» моделью.
Техническая оптимизация сайта
Для того чтобы сайт попадал в рекомендации ChatGPT, Gemini, Claude и других AI‑ассистентов, важно не только писать экспертный контент, но и обеспечить его техническую доступность для языковых моделей (LLM). Большинство генеративных ИИ используют сканеры, основанные на API-доступах, а также на собственной архитектуре краулинга. Это не Googlebot, но работают они по схожим принципам — с рядом отличий.
Разберем все пункты технической оптимизации отдельно.
Настройка Robots под GPT
Убедитесь, что сайт и ключевые разделы не закрыты в robots.txt и доступны для краулинга. Если создаёте отдельные страницы под AI-трафик — обязательно откройте их для индексации.
Схема настройки проста: вы прописываете User agent, и решаете, какие папки сайта ему открывать, а какие закрывать.
Платформа | User-agent | Описание |
OpenAI
(ChatGPT) |
ChatGPT-User
или GPTBot |
Используется при доступе к сайтам через функцию «с включённым поиском» |
Anthropic
(Claude) |
Anthropic-User | Может появляться как часть обхода в Claude Pro (ограниченно) |
Google
(Gemini) |
Google-Extended | Используется для краулинга контента для обучения моделей, настраивается через robots.txt |
Microsoft
(Copilot / Bing Chat) |
Bingbot, Microsoft-AI | Bingbot используется и для традиционного SEO, и для AI-ответов |
Perplexity AI | PerplexityBot | Активно сканирует сайты в режиме реального времени |
You.com | YouBot или YouSearchBot | Используется при генерации AI-ответов в поиске You.com |
Meta AI (LLaMA / Meta AI assistant) | facebookexternalhit, возможно появление нового бота | Пока краулинг происходит частично, скорее для соцсетей |
Amazon (Alexa LLM) | AlexaBot | Уточняется, но может использоваться для подготовки LLM-подсказок |
DuckDuckGo AI Chat | DuckDuckBot | Используется в сборе контента, который может применяться в AI-интерфейсах |
Cohere AI, Mistral, Mistral Chat, Pi от Inflection AI и др. не имеют своих четких агентов, и скорее всего используют другие платформы поиска.
Добавление экспериментального файла llms.txt (по аналогии с robots.txt) может помочь — он используется некоторыми краулерами LLM (например, от Perplexity). Укажите в нём, какие директории открыты или запрещены для обхода.
Если вы хотите спрятать свой сайт от AI сканнеров, то вот пример настройки Robots.
User-agent: GPTBot
Disallow: /
User-agent: PerplexityBot
Disallow: /
User-agent: Google-Extended
Disallow: /
Google-Extended — это агент Gemini. В него входил ранее Bard (ныне интегрирован в Gemini), а также в AI-функция поиска (AI Overviews, SGE — Search Generative Experience). Gemini не использует отдельного краулера — вместо этого стандартные поисковые боты Google, такие как:
- Googlebot — основной сканер сайтов для поиска.
- Google-Extended — специальный user-agent, через который Google собирает контент для обучения своих AI-моделей, включая Gemini.
GPTBot (официальный краулер OpenAI) реально соблюдает инструкции, прописанные в robots.txt. Об этом говорится в его официальной документации. При текущих настройках robots.txt GPTBot не будет сканировать ваш сайт, и контент не попадёт в доступную для генерации базу (в режиме веб-поиска).
Настройка LLMS.txt
Файл llms.txt — это текстовый документ, который содержит структурированную информацию о вашем сайте, предназначенную для использования крупными языковыми моделями (LLM). Он помогает LLM лучше понимать и обрабатывать контент вашего сайта, что в свою очередь позволяет им давать более точные и релевантные ответы на запросы пользователей.
Прописывается он в Markdown формате.
# Название вашего проекта (например, Документация по продукту)
> Краткое описание вашего проекта.
## Категория 1
* [Ссылка на страницу 1](https://example.com/page1.html)
* [Ссылка на страницу 2](https://example.com/page2.html)
## Категория 2
* [Ссылка на страницу 3](https://example.com/page3.html)
* [Ссылка на страницу 4](https://example.com/page4.html)
llms.txt — неофициальная экспериментальная инициатива. Он не описан в стандартах и не поддерживается OpenAI официально. Некоторые компании (например, Perplexity) начали учитывать его, но ChatGPT — нет. Если же нужно его настроить, есть пару способов.
Но это не клон robots.txt, и у него другие задачи. Файл может включать полную версию документации или все содержимое сайта в одном файле, предоставляя LLM более подробную информацию.
Для веб-ресурсов на WordPress уже вышел удобный плагин. Для других CMS — стоит поискать, но его можно создать самому.
Расположение этого файла — в корневой папке сайта (public_html например).
Если вы хотите ограничить или разрешить доступ GPT — используйте только robots.txt. llms.txt можно использовать дополнительно — для Perplexity или будущей совместимости, но не как основной способ управления.
Чистая структура HTML
AI-ассистенты вроде ChatGPT, Perplexity, Copilot собирают контент с сайтов через собственные краулеры, как мы уже поняли ранее. Но многие ошибаются, что они “читают и понимают”, что у вас написано.
GPT и другие ИИ не “угадывают” смысл — они ищут чёткие паттерны, понятную структуру и выделенные фрагменты (заголовок-ответ).
Эти краулеры не запускают JavaScript, не кликают кнопки, не переходят по вкладкам — они работают почти как Googlebot 10 лет назад, то есть читают только сырой HTML.
Поэтому, если ваш сайт плохо структурирован, важный контент не загружается без JS, или HTML написан запутанно — AI-бот может просто не понять, о чём ваш материал. И тогда GPT не сможет включить его в свои ответы.
- Весь важный текст должен быть виден в исходном коде страницы (View Source).
- Не полагайтесь на JS-фреймворки без SSR (например, React без Next.js).
- ИИ-боты не дождутся загрузки данных через API, не «поймут» скрытый текст.
На скриншоте код сложного инструмента, и вот единственное, что сможет увидеть GPT из этой страницы — так как весь контент тут “подгружается” от взаимодействий.
Второй частью проблемы является повсеместное использование <div> тега в HTML, при этом полностью могут игнорироваться классические семантические теги:
Заголовок | Пример семантических тегов |
Основной контент | <main>, <article> |
Заголовки | <h1>, <h2>, <h3> |
Навигация | <nav>, <ul><li> |
Боковая панель | <aside> |
Подвал | <footer> |
Следуйте простым советам:
- Избегайте HTML-ошибок, незакрытых тегов, лишних вложенных <div>.
- Не прячьте важный текст в CSS или невидимые блоки (display: none).
Страницы с «грязной» версткой просто игнорируются — бот не может извлечь из них пользу.
GPT-модели реально учитывают иерархию заголовков — это помогает им понять структуру мысли, порядок блоков и выделить ключевые темы страницы.
Придерживайтесь правила дерева:
- 1 H1.
- Несколько вложенных H2 (не менее 2).
- Не менее 2 вложенных H3.
GPT лучше обрабатывает тексты, где:
- абзацы не длиннее 4-5 строк;
- используются списки <ul>, <ol> для шагов, преимуществ, сравнений;
- заголовки выделяют логические блоки.
Формула, которую мы продвигали в ТЗ копирайтерам уже 5 лет минимум — “короткие абзацы + списки + заголовки + визуальная структура” — оказалась пророческой.
Почему чистый код важен?
- AI-системы работают с ограничениями по времени: медленные страницы могут быть проигнорированы. Используйте CDN, сжатие изображений, lazy-load и другие классические техники оптимизации.
- Особенно это актуально для тех AI-сервисов, которые делают многопоточную загрузку через API (например, Copilot или Perplexity).
- Контент должен быть доступен без регистрации, переходов, вложенных форм и JS-загрузки. Чем проще и прямее доступ к тексту — тем выше вероятность, что бот его обработает.
- Страницы-заглушки, лендинги без текста или одностраничники почти не участвуют в AI-выдаче.
Микроразметка материалов
Если ты хочешь, чтобы твой контент воспринимался не просто как текст для человека, а как структурированная информация для машины, то тут стоит изучить все про микроразметку. Есть некий “базовый список” разметок, которые нужно ставить на свой сайт, и, чтобы прочитать про него, стоит заглянуть в Google в раздел Структурированные данные.
ChatGPT, как и поисковики, ориентируется на семантику страницы. Когда ты используешь JSON-LD-разметку (или Microdata, но лучше JSON-LD), то прямо объясняешь боту: вот тут вопрос, вот тут ответ, а вот здесь пошаговая инструкция.
Микроразметка помогает AI чётко определить: где вопрос, где ответ, где инструкция, а где автор. Особенно важны:
- Article, BlogPosting, NewsArticle — для статей.
- Person — для описания автора (включайте поле sameAs с соцсетями).
- Блок микроразметки Question/Answer поможет понять роботам, что тут есть конкретный ответ на вопрос, на который уже есть выбранный подтверджденный ответ тегом AcceptedAnswer. Это облегчает включение твоего текста в ответы на вроде бы простые, но практичные вопросы.
- SiteNavigationElement поможет понять содержание статьи.
- Breadcrumblist (хлебные крошки) тоже играют роль — они указывают, как материал встроен в иерархию сайта, и GPT лучше понимает тематику и взаимосвязи между страницами. Это важно не только для SEO, но и для построения “карты знаний”, которую модель держит в голове.
- Если у тебя есть блок с часто задаваемыми вопросами в конце статьи, то добавив к нему Schema.org/FAQPage, ты даёшь модели понять, что это полезный структурированный контент, который можно вставить в ответ.
- Разметка HowTo особенно полезна для инструкций и гайдов: она показывает, что контент содержит пошаговый процесс с действиями, картинками, результатом.
Ссылки как фактор ранжирования в GPT
Да, внешние ссылки (outbound links) имеют значение для генеративных моделей вроде GPT. Причём не для передачи «веса», как в классическом SEO, а как сигнал доверия и прозрачности источника.
Вы не ослышались. Исходящие ссылки. Не входящие.
Когда GPT видит, что статья опирается на проверенные, авторитетные материалы, он с большей вероятностью:
- считает контент проработанным и обоснованным;
- использует его в ответах как «вторичный» или даже основной источник;
- повышает доверие к сайту как к точке синтеза информации.
На что ссылаться стоит, а на что нет? Давайте разберемся. Вот на что — можно:
- На официальные документы, исследования, стандарты — Google, gov, ISO, developer-порталы, Википедия, Google Scholar.
- На первичные источники, если вы ссылаетесь на чьи-то данные или цитаты.
- На ключевые авторитетные сайты в вашей нише — например, Moz, Ahrefs, FDA, StackOverflow, ISO, PubMed, W3C.
А на что — нельзя:
- Ссылки, которые нашел сам GPT — он может выдавать не очень качественные результаты. Про подобные сайты я писал в нашем телеграм канале.
- Ссылки-галлюцинации. Иногда GPT системы придумывают ссылки, так как не смогли их найти, но контент в базе у них по этой теме видимо есть. И ссылка сочиняется — может быть битой, редиректить на главную или куда-то еще.
- Ссылки на сайты с низким рейтингом. Такие ссылки убирайте, если они не являются основной целью вашего анкора.
- Ссылки на рекламные или партнерские материалы без обоснования.
- Спамные источники, агрегаторы и сайты без содержания.
- Механическое «запихивание» ссылок без связи с темой.
Вместо вывода: добавляйте ссылки, когда это усиливает суть и полезность. GPT не считает такие ссылки «утечкой веса», он читает их как аргумент — и именно это помогает попасть в его ответы.
Контент-план под GPT
Чтобы ваши статьи оказывались в ответах ChatGPT, Gemini или Perplexity, недостаточно просто «делать хороший контент». Нужно понимать, как LLM-модели ищут информацию, по каким признакам выбирают страницы и на каком этапе «отсеивают» некачественные материалы.
Ниже — пошаговая методика формирования контент-плана под GPT, основанная на результатах анализа выдачи, парсинга AI и поведенческих паттернов моделей.
Находим темы, которых нет в выдаче
Главная ошибка — писать то, что уже есть. AI не дублирует существующий контент, он выбирает наиболее полные и структурированные ответы. Поэтому сначала нужно найти темы, которые хорошо не раскрыты:
- мониторим Reddit, TikTok, YouTube Shorts;
- собираем вопросы из комментариев, форумов, сторис;
- проверяем наличие ответов в Google — если уже есть полноценная статья, пропускаем.
Если вам нужен контент-план под GPT,
напишите мне, и мы оценим объем работ для вашего проекта и сможем подготовить коммерческое предложение по созданию контента, который выигрывает трафик в Google и GPT!
Формируем пул ключей и запросов под GPT
GPT формирует поисковые запросы по особой логике: ключ + уточнение + модификатор + фильтры. Вы можете под это адаптироваться, формируя семантику так, как «мыслят» AI‑системы:
- «как выбрать генератор для дачи в 2025»;
- «гайд по настройке X под условия Y»;
- «что лучше: A или B».
Дополнительно используйте фильтры: site:, filetype:pdf, after:2024-01-01, -reddit, чтобы понять, какие типы запросов AI охотно поддерживает.
Создаём ТЗ, понятное для LLM
Хорошее техническое задание под GPT-контент строится по принципу:
- Title — чёткий, но не шаблонный; отражает intent.
- Description — закрывает вопрос, но не до конца (AI охотнее «дочитает» сайт).
- H1 — повторяет основной ключ.
- H2–H3 — чётко разбиты на смысловые блоки, каждый из которых раскрывает один подинтент.
- FAQ — оформлен с учётом Schema.org/FAQPage и People Also Ask.
Каждое ТЗ можно автоматически сгенерировать и масштабировать — в успешных проектах создаётся до 100 ТЗ в день.
Сегодня я перешел на создание ТЗ в свой собственный инструмент Content Editor – где создаю под страницу сразу метаданные, ТЗ и уже потом прямо в нем пишу контент.
Мне тут удобно делать все под ключ: метаданные, ключи, проверять грамматику и даже генерировать какие-то блоки за счет GPT — он отлично помогает дорабатывать текст.
Оптимизируем метаданные и микроразметку
GPT читает title, description, URL и структуру H2 ещё до открытия страницы. Ваш сниппет должен быть:
- достаточно релевантным, чтобы отразить тему;
- достаточно незавершённым, чтобы побудить GPT открыть страницу;
- дополнен OG-тегами, Schema.org/Article, Author, Publisher, FAQPage, BreadcrumbList.
Микроразметку Schema можно проверить в валидаторе микроразметки по ссылке.
Проверяем наличие микроразметки OpenGraph через наше расширение.
Учитываем мультиязычность и структуру URL
Контент может попадать в выдачу на других языках. Для этого:
- не делаем прямой перевод GPT;
- изначально пишем на родном языке, переводим вручную или через редактуру;
- корректируем URL: /product-name-2025/ — если тема ежегодная, /product-name/ — если вечнозелёная;
- сохраняем вложенность URL не глубже 3 уровней: /seo/technical/canonical-vs-noindex
Публикуем, трекаем и масштабируем
После публикации:
- добавляем названия статей (Title) в SERanking — это позволяет быстро отслеживать их появление в поиске;
- отслеживаем AI-трафик в аналитике по меткам (utm_source=chatgpt.com, perplexity.ai);
- корректируем темы, усиливаем цитируемость;
- обновляем устаревшие статьи раз в 6-12 месяцев.
Создание уникального, экспертного контента
Многие тут ошибочно подумают, что вот рецепт, запускаем GPT для генерации контента и радуемся жизни.
Как бы не так.
ChatGPT чаще ссылается на источники, которые обладают высоким авторитетом в нише (E-E-A-T: experience, expertise, authoritativeness, trustworthiness), дают точные, структурированные и полезные советы и регулярно обновляют контент.
Ценность материала
Чтобы ChatGPT мог рекомендовать твой сайт или материал, он должен видеть в нём ценность, понятную даже машине. Под «уникальностью» здесь не просто имеется в виду отсутствие копипаста, а то, что ты даёшь пользователю то, чего нет в других источниках: личный опыт, практические кейсы, нестандартные выводы, экспертный анализ. GPT отдаёт приоритет материалам, которые можно вставить как готовое решение в ответ.
Контент, содержащий:
- пошаговые инструкции;
- таблицы;
- списки;
- сравнения;
- схемы принятия решений;
- примеры реальных кейсов и ситуаций, в которых можно применить информацию,
воспринимается как более полезный. Как пример — скриншот из моей статьи с типичной инструкцией, которую можно просто “забрать” под ключ.
Чем больше примеров и данных ты приводишь из своего реального опыта или анализа, тем выше ценность контента. Моя статья про продвижение в SEO сайта Rozetka — чистый пример того, как попадать и в GPT цитирования, и в ТОПы Google.
GPT умеет оценивать плотность «новой» информации:
- избегайте воды, вводных и банальностей;
- каждый абзац должен давать новую деталь, уточнение, факт;
- хорошо работают тексты, которые освещают подаспекты темы, даже если не были явно запрошены;
- чем меньше материал похож на «переписанный ТОП Google», тем выше шанс, что он будет замечен и использован.
Модель GPT обучена различать статьи, которые «написаны для галочки», и статьи, где автор действительно разбирается в теме. GPT способен различить поверхностный текст и глубокую проработку. Это видно по:
- наличию развёрнутых объяснений сложных понятий, а не пересказу очевидного;
- анализу причин и следствий, а не просто списку признаков или шагов;
- выявлению нюансов в теме, которые редко обсуждаются.
Чем больше контекстуальной информации, тем выше вероятность, что AI выберет материал как источник для генерации ответа.
AI может распознать, что автор глубоко в теме, по:
- использованию терминов и понятий, характерных только для экспертов;
- упоминанию внутренних процессов, данных, ошибок, практик, которые знает только специалист;
- формулированию собственных выводов;
- наличию альтернативных подходов к решению задачи;
- использованию метафоры, интерпретации.
Структурированность материала
Второй аспект — это структура. Контент должен быть логично организован: заголовки, подзаголовки, списки, выделения. Даже если ты пишешь длинный текст, он должен читаться легко, без каши.
Машина училась на сотнях тысяч хороших статей, и она выделяет те, где понятно, о чём речь в каждом абзаце.
Поэтому придерживайтесь простых правил:
- Одна мысль — один блок. Каждый логический фрагмент текста должен раскрывать одну конкретную идею или вопрос. Если в абзаце сразу и про технологию, и про сравнение, и про ошибки — GPT не сможет чётко «приклеить» этот блок к нужному запросу.
- Логика раскрытия от общего к частному. Хороший контент строится по принципу: сначала проблема или контекст, потом решение или объяснение, затем — уточнение, пример или следствие. Это универсальный паттерн, который GPT умеет выделять и предпочитает в ответах.
- Иерархия смыслов в заголовках. Каждый заголовок должен обозначать тему, а не просто слово. GPT использует заголовки как карту смыслов: если H2 обозначает этап, H3 — шаг в нём. Когда всё идёт последовательно — AI считывает структуру как логичный путь.
- Смысловые переходы. Важно не просто разбить текст на части, а связать их — показать, почему читатель должен перейти от одного раздела к другому. GPT оценивает тексты как «целостные», и если один блок логически не продолжает предыдущий — он становится «висячим» и не попадает в ответ.
- Выводы внутри разделов. Каждый раздел должен чем-то завершаться: выводом, обобщением или подведением промежуточного итога. GPT обращает внимание, когда мысль завершена — и может использовать такой блок как самостоятельный ответ.
Последний пункт — это просто действительно интересный момент. В своей статье про то, как проверять текст на AI, я говорил про эту блочную структуру написания контента. И выходит:
Чтобы попасть в AI, тебе нужно писать, как AI. При этом писать лучше, чем AI — ведь он лишь машина, и его знания ограничены.
Живое подтвержденное авторство
Третий аспект — это реальное авторство. Автор должен быть живым с реальным именем и профилями в соцсетях.
Что сделать:
- Визуальный блок «Об авторе» с фото, должностью и опытом.
- Желательно с внутренней перелинковкой на страницу команды или проекта.
- Включить регулярно обновляемую дату публикации и даты редактирования (обязательно!)
- В микроразметке Author через SameAs указать реальные ссылки на соцсети автора (у меня указан мой Linkedin).
"@type": "Person",
"name": "Николай Шмичков",
"jobTitle": "SEO-эксперт",
"url": "https://seoquick.com.ua/team/nikolay",
"sameAs": [
"https://t.me/seoquick_company",
"https://www.linkedin.com/in/malefictum/"
]
Обязательно добавляй блок «Об авторе» или хотя бы имя эксперта, если хочешь, чтобы материал воспринимался как экспертный.
Если есть конкретное лицо, за которым закреплен контент, и оно публично присутствует (в соцсетях, на других сайтах), это создаёт дополнительное доверие.
Чем больше таких признаков экспертности — тем выше шанс, что ChatGPT воспримет твою статью как надежную и полезную.
Линкбилдинг
Классический линкбилдинг (SEO-ссылки для PageRank) — прямо не влияет на то, будет ли GPT использовать ваш сайт в своих ответах. GPT не оценивает ссылочный профиль так, как это делает Google.
Миф 1. Ссылки влияют на ранжирование в GPT
Внешние ссылки не непосредственно влияют на GPT‑ответы, но помогают вашему сайту занимать высокие позиции в Google и Bing. А поскольку GPT часто формирует ответы на основе первых 3-10 результатов поиска, ссылки работают «в фоновом режиме» — улучшая видимость в выдаче и повышая шанс попадания в AI-ответ. Про это я рассказывал в главе “как работает поиск ChatGPT”.
Миф 2. Важно Dofollow ссылки
В отличие от Google и Bing, вам не важны ссылки ради DR, Pagerank или других вещей. Да, опосредованно это влияет на ранжирование, но не напрямую. Но сказать что ссылки совсем не нужны — будет полуправдой.
- Если ваш контент часто упоминается на сторонних ресурсах, особенно в блогах, статьях, форумах — он может быть замечен и добавлен в базу знаний GPT при следующем обновлении.
- Чем больше «естественных» ссылок — тем выше шансы попасть в Common Crawl или другие датасеты.
Вероятность попасть в базу, конечно, невысокая, но вот качественный контент от вашего имени на трастовых для GPT ресурсах — может быть вам очень полезен.
Если ваш контент упоминают на авторитетных платформах (например, технических блогах, форумах, официальных ресурсах), GPT может воспринять это как признак надёжности. Такой контент с большей вероятностью учитывается при формировании AI-ответов, особенно если он попадает в обучающие датасеты.
- GPT при сборе свежей информации отдаёт приоритет источникам с высоким авторитетом.
- На примере digital сферы — если на вас ссылаются W3C, GitHub, StackOverflow, SEJ, Wikipedia, Dev.to, Habr и т.п. — это усиливает восприятие вашего сайта как надёжного источника. Список под каждую нишу можно спросить у самого GPT.
Миф 3. GPT «понимает» ссылку как SEO-бот
GPT не анализирует анкор, атрибут dofollow/nofollow или внутреннюю структуру ссылок, как это делает Google. Для него важно, где находится ссылка и в каком контексте:
- Использована ли она в доказательстве?
- Ссылается ли автор, чтобы обосновать позицию?
- Насколько релевантен контент страницы-донора?
GPT не «считает ссылочный вес», а скорее оценивает, усиливает ли ссылка доверие к материалу. Поэтому классическая работа по анкорам, жирным страницам и проставлению dofollow — не имеет смысла в контексте GEO.
Миф 4. Чем больше ссылок — тем выше шанс попасть в GPT
Массовое размещение ссылок не работает для генеративных ИИ. GPT не считает количество ссылок метрикой качества. У него даже нет подобной базы и калькуляции этих данных. Он оценивает цитируемость в авторитетных и тематических источниках, а не число упоминаний.
Что смело можно исключить из стратегий, если вам это пытаются продать:
- Краудмаркетинг.
- Web 2.0 ссылки и ссылки с сеток сайтов (PBN).
- Ссылки с бирж (Collaborator, Miralinks и прочие).
- Ссылки на мусорных сайтах (таких много, есть взломанные сайты) с высоким DR.
- Сайты-директории (каталоги, справочники). Да, есть исключения, и их можно узнать у GPT.
10 естественных ссылок с проверенной базы доменов (именно которые отобрал AI) и отраслевых блогов — в 100 раз ценнее, чем 500 линков с сетки PBN или ноунейм-каталогов. GPT воспринимает такие «мусорные» ссылки как шум и игнорирует их.
Для Украины я собрал список сайтов, которые GPT “проверяет”, когда ищет информацию.
Основные справочники
site:ua-region.info site:youcontrol.com.ua site:opendatabot.ua site:dzo.com.ua site:biznes-guide.com.ua site:biznesrada.com site:biznesua.com site:ua-company.com site:orgpage.com.ua site:biznesmarket.com.ua |
Агрегаторы предложений
site:hotline.ua site:price.ua site:lun.ua site:domik.ua site:24.ua |
Юридическая информация
site:prozorro.gov.ua site:clarity-project.info site:edr.gov.ua site:court.gov.ua |
Каталог и отзывы
site:clutch.co site:goodfirms.co site:topdigital.agency site:it-rating.ua site:firms.ua |
Для проверки вакансий
site:work.ua site:rabota.ua |
Для оценки размера компании
site:linkedin.com site:crunchbase.com site:trustpilot.com |
Для ниши криптообменников
обмен криптовалют Украина OR криптообменник Киев OR лучший обменник USDT site:bestchange.net OR site:cryptonator.com OR site:rates.fm OR site:kurs.expert OR site:obmenka.ua OR site:coinhub.ua OR site:btcbank.com.ua OR site:coin24.com.ua OR site:crypto-obmen.com OR site:kuna.io OR site:whitebit.com OR site:forklog.com OR site:minfin.com.ua OR site:biz.censor.net OR site:youcontrol.com.ua |
Для стоматологии
site:doc.ua site:likarni.com site:24dentist.com.ua site:mydentist.ua site:health.ua site:moz.gov.ua site:prodoctorov.ua site:itmed.org site:medcentre.com.ua site:doctortap.com site:topclinic.com.ua site:biz.censor.net site:youcontrol.com.ua site:linkedin.com |
Пример поискового запроса
надежные криптообменники Украина 2025 site:bestchange.net OR site:coinhub.ua OR site:kuna.io OR site:forklog.com
Видео и визуальный контент в AI-ответах
В большинстве GEO-стратегий все делают ставку на текст. Но GPT всё чаще подбирает гибридные ответы: абзац + ссылка на видео + упоминание бренда. А если твоего видео нет, он возьмёт чужое.
В GPT продвижении видео — недооцененный канал — и наверно один из тех, на которые многие бы никогда не обратили внимание. Сегодня генеративные ассистенты (ChatGPT, Google Gemini, Perplexity) всё чаще включают видео в выдачу или строят ответы на их основе, особенно в «практичных» нишах:
- Стоматология, медицина, косметология — объяснение процедур, визуализация до/после.
- Финансы, крипта, инвестиции — обзоры, объяснение сложных терминов, инфографика.
- Ремонт, DIY, авто — инструкции, пошаговые видео, сравнения инструментов.
- Обучение и гайды — “как сделать”, “что выбрать”, “чем отличается”.
YouTube давно встроен в алгоритмы Google, а с появлением AI Overviews и интеграции видео в ChatGPT (через ссылки и плееры) — эти ролики стали попадать прямо в ответы.
При запросе в стиле “видеоинструкция {Ваш запрос}” GPT вставляет ссылки на ролики YouTube (в ChatGPT с активным поиском и в Bing Chat). Также цитирует описание видео, если в нём чётко структурирован ответ на вопрос. А затем формирует краткий ответ на основе аудиорасшифровки видео (по субтитрам).
Также по ряду ссылаются на Shorts / TikTok в темах с большим количеством пользовательских кейсов или трендов («что сейчас популярно»).
На что я обратил внимание — по ряду вопросов он “не может” найти видеоинструкцию. Хотя они могут быть — но на других платформах.
Что сделать, чтобы охватить этот вид трафика?
- Делай видеоверсии ключевых статей → загружай на YouTube с подробным описанием, таймкодами, ссылкой на статью.
- Используй одинаковую структуру: тот же H1 используй как заголовок видео, а подзаголовки H2/H3 размещай в таймкоды. GPT читает описание, читает заголовки и читает субтитры.
- Обязательно добавляй в описание: ключевые слова, ссылку на статью, микро-FAQ (чтобы GPT «подхватил»). Не забывай про теги, хештеги — ведь если вы не будете ранжироваться внутри Youtube / tiktok / Google — вас GPT не найдет.
- Для Shorts контента всегда ориентируйся на вопрос + краткий ответ (15–60 сек). Не лей воду в середине ролика.
Читай также мои гайды по видеомаркетингу сегодня
Выводы
Получился достаточно объемный (более чем на 5000 слов) гайд для начинающих, но его основная мысль — донести, что мы входим в эру нового вида продвижения, и вероятно именно GPT сменит пользовательское поведение.
GPT-оптимизация (GEO) — это не замена классическому SEO, а его современное расширение. Она требует новой логики: писать не только для людей и Google, но и для языковых моделей. Поэтому SEO-специалисты без работы не останутся, ее наоборот только прибавилось.
AI-ассистенты формируют ответы из реального контента, и ваша задача — сделать этот контент удобным для восприятия: структурированным, экспертным, доступным. Нет вашего контента — GPT возьмет похожий у конкурента.
Техническая база критична: чистый HTML, правильно настроенный robots.txt, микроразметка и открытость сайта для AI-ботов напрямую влияют на шанс попасть в выдачу. Учтите, он видит ваш сайт как поисковой робот 10-летней давности.
Сильный контент — основа GEO. GPT выбирает то, что даёт готовый ответ: инструкции, таблицы, примеры, сравнения, выводы. Контент должен быть не просто уникальным, а реально полезным. Причем полезность оценивает не пользователь, не Google, а именно GPT.
Линкбилдинг и цитируемость работают опосредованно: не количество ссылок, а упоминания на трастовых ресурсах и наличие вас в тех доменах, с которых GPT черпает данные. И список их вполне легко собрать, если знать как.
Видео и визуальный контент всё чаще интегрируются в AI-ответы. Простой текст больше не доминирует — короткие ролики, инструкции и обзоры усиливают видимость в генеративных платформах. А мы говорили — создавайте YouTube-каналы и перегоняйте свои статьи в видео.
Чтобы быть рекомендованным GPT — нужно писать как AI, но лучше, чем AI. Прозрачная структура, честные выводы, реальный опыт и подтверждённое авторство — это то, что делает ваш материал источником ответа. Даже эту статью мне помогал писать ИИ, конечно — не в один промт (а в более, чем 500). А также помог ее проверить и вычитать.
Подпишитесь на рассылку
Будьте в курсе последних новостей и спецпредложений
Я с удовольствием отвечу вам на них. Если вас интересует продвижение своего проекта, консультация по раскрутке, я с радостью буду рад пообщаться с вами
Напишите мне пожалуйста удобным вам способом