Что такое клоакинг простыми словами

Чтобы понять суть клоакинга, представим ситуацию. Вы приходите в магазин, и консультант показывает вам один товар. Но когда для проверки в этот же магазин приходит эксперт, ему демонстрируют совершенно другой, эталонный продукт. Хотя вы оба находитесь в одном и том же месте, содержимое, которое вам показывают, различается.

Клоакинг (от англ. cloak — «мантия», «маскировка») — это запрещенная техника поисковой оптимизации (SEO), при которой поисковому роботу и обычному пользователю показывают разное содержимое одной и той же страницы.

Цель этого метода — обмануть поисковую систему. Роботу показывают идеально оптимизированную страницу, чтобы получить высокие позиции в поисковой выдаче. Реального же пользователя, перешедшего по ссылке, направляют на другую страницу, которая может преследовать иные цели, например, связанные с агрессивной монетизацией трафика.

Принцип работы клоакинга

Технически все сводится к одной задаче: определить, кто именно запрашивает страницу — человек или поисковый робот. Когда на сервер поступает запрос на открытие URL, специальный скрипт анализирует его и решает, какую из двух версий страницы отдать.

  1. Пользователь или поисковый робот запрашивает страницу сайта.
  2. Серверный скрипт анализирует, кто сделал запрос.
  3. Если это робот, ему отдается версия страницы А (оптимизированная).
  4. Если это человек, ему отдается версия страницы Б (для пользователя).

Для такой идентификации используются несколько основных методов.

Идентификация посетителя

Чтобы "разделить" трафик, вебмастера анализируют техническую информацию, которую передает каждый посетитель.

  • По User-Agent. User-Agent — это своего рода "цифровой паспорт" браузера или робота. Каждый раз, заходя на сайт, он представляется. У поисковых роботов есть свои уникальные User-Agent. Достаточно проверить эту строку, чтобы понять, кто перед вами.

Вот примеры User-Agent самых известных поисковых систем:

Поисковая система Пример User-Agent
Google Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Яндекс Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots)
Bing Mozilla/5.0 (compatible; bingbot/2.0; +http://www.bing.com/bingbot.htm)
  • По IP-адресу. У поисковых систем есть свои диапазоны IP-адресов, с которых их роботы сканируют интернет. Вебмастера собирают эти адреса в базу и сверяют IP каждого посетителя с этой базой. Если есть совпадение — это робот. Минус метода в том, что эти списки IP постоянно меняются, и их нужно регулярно обновлять.
  • Через обратный DNS-запрос (Reverse DNS). Это самый надежный способ. Скрипт получает IP-адрес посетителя и делает запрос в DNS, чтобы узнать, какому доменному имени этот IP принадлежит. Если IP-адрес действительно разрешается в домен вроде `.googlebot.com`, то это точно официальный робот Google.

Виды клоакинга

В моей практике принято делить клоакинг на "черный" и "белый". Грань между ними иногда тонка, но их цели и последствия кардинально различаются.

Черный клоакинг

Это и есть тот самый обман поисковых систем, за который наказывают. Его главная цель — манипулирование поисковой выдачей.

Как это выглядит:

  • Для поискового робота создается страница, идеально заточенная под релевантность: с большим количеством текста, насыщенного ключевыми словами, с правильной структурой заголовков и т.д.
  • Для пользователя показывается совсем другой контент: агрессивная реклама, партнерские ссылки, страница для сбора контактов или даже редирект на другой ресурс. Часто этот контент никак не связан с исходным поисковым запросом пользователя.

Такие методы поискового спама активно применяются в высококонкурентных и так называемых "серых" нишах: гемблинг, adult, фармацевтика, микрозаймы. Это грубое нарушение правил, которое почти всегда приводит к санкциям.

Белый клоакинг

Это условное название для техник, которые используют тот же принцип (показ разного контента), но с целью улучшения пользовательского опыта, а не обмана поисковиков.

Примеры "белого" клоакинга:

  • Геотаргетинг. Сайт определяет страну или город пользователя по его IP-адресу и показывает ему релевантную информацию: правильный язык, валюту, ближайший магазин или локальные новости. Поисковые системы видят контент для основного региона (например, США), но не возражают против показа локализованных версий пользователям.
  • Формат контента. Например, новостной сайт может показывать пользователям из Google News полную статью, а обычным посетителям — только анонс с предложением подписки.
  • A/B-тестирование. Показ разным сегментам пользователей немного отличающихся версий страницы (например, с разными заголовками или цветом кнопки), чтобы определить, какая из них работает лучше. Роботу при этом обычно показывают исходный вариант.

Ключевое отличие "белого" клоакинга в том, что намерение и основная суть контента для робота и пользователя совпадают. Вы не пытаетесь обмануть, а стремитесь сделать сайт удобнее.

Почему черный клоакинг — это плохо

Использование черного клоакинга — это игра с огнем и почти гарантированный способ "убить" свой сайт. Поисковые системы считают это одним из самых серьезных нарушений.

Вот какими могут быть последствия:

  • Жесткие санкции и пессимизация. Сайт резко теряет позиции по всем запросам. Трафик из органического поиска может упасть до нуля.
  • Полный бан. Сайт полностью исключается из индекса поисковой системы. Его страницы перестают появляться в поиске вообще. Снять такой бан практически невозможно.
  • Потеря доверия. Это касается и пользователей, которые, попав на обманную страницу, больше не вернутся, и поисковых систем, которые будут относиться к вашему домену с крайним подозрением в будущем.

И Google, и Яндекс в своих руководствах для вебмастеров прямо заявляют, что маскировка (клоакинг) является нарушением, так как предоставляет пользователям не те результаты, которые они ожидали увидеть.

Как поисковые системы обнаруживают клоакинг

Думать, что можно обмануть поисковую систему в 2024 году — наивно. У них есть целый арсенал для выявления подмены контента.

  • Продвинутые алгоритмы. Роботы научились не просто сканировать HTML-код, но и рендерить страницы (то есть "видеть" их так, как видит браузер), сравнивая результат с исходным кодом.
  • Асессоры. Это реальные люди, которые вручную проверяют сайты из поисковой выдачи на соответствие правилам. Они легко заметят подмену.
  • Поведенческие факторы. Если пользователи, переходящие на сайт из поиска, сразу же возвращаются обратно в выдачу, для поисковика это сигнал: контент не соответствует запросу. Это может быть поводом для более глубокой проверки.
  • Жалобы пользователей. Любой человек может пожаловаться на спам в поисковой выдаче, и такие сигналы обязательно проверяются.

Заключение

Клоакинг — мощный, но опасный инструмент. Черные методы его применения для манипуляции поисковой выдачей неизбежно ведут к санкциям и полной потере сайта. Я категорически не рекомендую использовать их в работе. В то же время, легальные техники, такие как геотаргетинг или A/B-тестирование, являются полезными инструментами для улучшения сайта, если применять их честно и с ориентацией на пользу для пользователя.