Клоакинг

Термин имеет англоязычную этимологию. На английском cloak означает завесу или маску. Клоакинг относят к так называемому черному СЕО. Суть техники в том, что поисковой программе и интернет-пользователю демонстрируют совершенно различные варианты одной страницы.

К этому способу прибегают в том случае, если невозможно в текст для людей уместить все ключи. При условии, что текст должен оставаться понятным и легким в прочтении. Разработчики создают две версии страницы, одна из которых показана пауку, а вторая — человеку.

Собственно говоря, технология близка к методике дорвеев. Отличие в исключении из механизма автоматизированной или ручной переадресации на искомую страницу — это минимизирует риск несанкционированного заимствования конкурентами. Технология такого дуализма довольно сложна для исполнителя, поскольку от него потребуются не только первичные навыки программирования, но и данные ip и/или user-agent роботов.

Клоакинг условно подразделяется на:

  • Черный. То есть игнорирующий законную сторону вопроса. Поисковик видит один текст, а пользователь — совершенно с ним не связанный вариант и не отвечающий критериям запроса.

  • Серый. Этот способ используют тогда, когда хотят защитить контент от распечатки или копирования, поскольку в этом варианте возможно появление дубликатов страницы. А наличие сайтов с одинаковым контентом может послужить причиной переоценке их с потерей уникальности. Не допустить этого возможно если, установить редирект, транслирующий ссылочную массу на базовый контент, являющийся первичным. Эта функция не претит ни машинной логике, ни восприятию людьми.

  • Белый. В данном случае примером может служить - геотаргетинг. Задача его перенаправить пользователя, чтобы облегчить работу сайту.

Как работает клоакинг?

Отделить живого человека и поисковика просто — по IP-адресу и User Agent. Соответственно, роботу демонстрируется максимально адаптированная под его запросы страничка, а людям выдается удобно читаемый и воспринимаемый контент. Для такого маневра можно применить следующее обеспечение:

К наиболее простым вариантам можно отнести User Agent. Суть методики проста: узнать имя робота (например, у Яндекса есть механизм под названием Yandex/1.01.001 (compatible; Win16; I)) и ввести функцию узнавания имен посетителей. Как только машина запросит контент, ему выдается максимально оптимизированная модификация. Для физического же пользователя заготовлен более читаемая и корректная вариация. Эта технология не сильно сложно детектируется. Достаточно при помощи специализированного ПО авторизироваться под любым «машинным» именем, функция сравнения награждает этого гостя измененным видом страницы. Как правило подобным методом «на чистую воду» ресурсы выводят конкурирующие площадки. Цель получения видоизмененной страницы — пожаловаться не некорректные технологии, чтобы добиться наказания нарушителя.

Более эффективная метода опирается уже на IP-адрес. Поисковик определяется по адресу, а фальсифицировать его проблематично. То есть показ страниц ведется исходя из данных сравнения адреса посетителя и некой картотеки адресов. Такая схема машинами не распознается или требует серьезных затрат ресурсов. Но есть и сложности — требуется доступ к этим самым адресным базам.

Самый продвинутый клоакинг — комбинированный. Это симбиоз, соединение проверки обоих параметров. Для мастера это самый хлопотный путь, но он же и дает наилучшие результаты.

Пауки и маски

Поисковые роботы клоакинг не любят и воюют с ним по мере сил. Причина в том, что часта варианты страниц резко отличаются не только степенью оптимизации, но и резким расхождением по содержанию. Предположим, система видит ключевые запросы, а человек — только набор рекламных объявлений. Хотя и не всякий клоакинг стоит относить к мошеннической схеме.

Даже интернет-зубры в своей работе не брезгуют прибегать к клоакингу. Общеупотребительные примеры: Amazon.com (демонстрация позиций зависит от того, что перед тем открывалось), Yelp.com, отдельные блоки Google, NYTimes.com (для регистрации потребуется 5 кликов), ComputerWorld.com (пользователи смотрят рекламу, а робот –html-коды) и Forbes.com (ролик рекламного содержания перед просмотром интересующего материала).