МИР ВЕБМАСТЕРА
Меню сайта
Главная » 2009 » Июнь » 18 » Виды клоакинга и реакция на него поисковых систем.
Виды клоакинга и реакция на него поисковых систем.
05:09

Дебаты о том, насколько технология клоакинга допустима при оптимизации сайтов, разворачиваются не первый год. Нет единого мнения и о том, что, собственно, следует считать клоакингом. Стефан Спенсер в своей статье рассматривает различные примеры использования этого приема и анализирует реакцию поисковых систем на него.

Еще в конце 2005 года на чикагской конференции по обсуждению стратегий поисковых систем автор задал вопрос присутствовавшим тогда представителям четырех крупнейших поисковиков – Google, Yahoo!, MSN и Ask. «Допустимо ли на сайтах показывать роботам поисковых систем не те ссылки, что видны пользователям, а более удобные для прочтения индексаторами версии?», - спросил автор статьи. Представители всех поисковых систем ответили: «Без проблем», а Чарльз Мартин из Google вскочил с места и воскликнул: «Сделайте это, пожалуйста!».

Спенсер считает, что поисковые системы не изменили своих взглядов на клоакинг до сих пор. По изначальному определению, клоакинг это демонстрация роботам поисковых систем URL-ссылок отличных от тех, что показываются пользователям. До тех пор, пока клоакинг касается лишь упрощения ссылок ради удобства роботов, поисковые системы приветствуют и поощряют его. Речь идет об удалении из адресов идентификаторов пользователей и сессий, стоп-символов и прочих фрагментов, представляющих трудность для робота.

Некоторые веб-маркетологи размещают в разных местах страницы идентичные ссылки и отслеживают, по какой ссылке проходит больше всего пользоваталей. Для подобных исследований приходится нагружать ссылки дополнительными тегами, которые сбивают с толку поисковые индексаторы. Кроме того, автоматически создаются дубликаты страниц, тоже отнюдь не облегчающие задачу роботов. Если показывать пользователям и роботам разные ссылки, то будут довольны и сборщики статистики, и поисковые системы. Для этого достаточно задействовать Javascript: пусть по клику на ссылке производятся различные действия в зависимости от параметра “user-agent”. Например, на сайте REI.com Javascript добавляет в ссылки параметр “vcat=”, но в поисковых системах эти страницы не индексируются.

Является ли мультивариантное, или многомерное, тестирование частным случаем злонамеренного клоакинга? В сети существуют сайты, которые показывают разным пользователям разные варианты одного сайта - Offermatica и Google Website Optimizer, например. Это можно считать клоакингом, так как пользователь и поисковый робот видят разные варианты страницы. Робот не сможет корректно обработать AJAX, Javascript, DHTML, которые обязательно будут присутствовать на сайте, и поэтому содержание страницы от него прячется. И, хотя специалисты из Google хотели бы, чтобы их бот принимал участие в тестировании сайтов, уровень развития Интернет-технологий пока не позволяет осуществиться этим желаниям.

«Вредной» разновидностью клоакинга поисковые системы считают намеренную демонстрацию одного смыслового наполнения сайта поисковому индексатору и совсем другого – пользователям. Веб-мастера, прибегающие к подобным ухищрениям, часто пытаются скрыть от посетителей страницы, предназначенные только для индексации ботом. Для этого они используют мета-тег “noarchive”. Как следствие, страницы не будут доступны по ссылке ‘Cached’ в результатах поиска Google.

Восстановить замаскированную от пользователя страницу, которую проиндексировал робот, не всегда просто. Если маскировка нежелательного содержимого основывается на параметре “user-agent”, проблема решается в считанные минуты. Достаточно эмулировать в своем браузере Google Bot, использовав расширение User Agent Switcher для Mozilla Firefox. Для этого выберите в меню браузера пункт Tools, далее User Agent Switcher > Options > Options > Googlebot/2.1. Теперь вы видите страницы в том же виде, в каком их индексирует робот Google. Почувствуйте себя роботом.:)

Иногда сервер определяет, какой вариант сайта следует показать пользователю, не по параметру user-agent, а по IP адресу. Зная адреса, с которых обычно заходят индексаторы поисковых систем, веб-мастер может настроить показ определенного содержимого страницы роботу, и совсем другого контента – человеку. Но и в этом случае иногда можно увидеть то, что предназначено только для поискового робота. Тут поможет переводчик сайтов Google Translate, по сути – бот Google, только не для индексации, а для перевода. Если владельцы сайта, использующие клоакинг, не уточнили, какой материал следует показывать индексатору, а какой – боту-переводчику, - пользователь утилиты Google Translate увидит скрываемое от него содержание. Полезно знать, что Google Translate может переводить с английского… на английский, и читателю не придется ломать голову над переводом замаскированного текста. Достаточно немного изменить URL:

http://translate.google.com/translate?hl=en&sl=en
&u=YOUR_ULR&sa=X&oi=translate&resnum=9&ct=result

Итак, не все виды клоакинга направлены на обман пользователей и поисковых систем. Есть трюк с показом разных вариантов страницы индексирующему боту и пользователю, и есть безобидное и весьма полезное для поисковых систем упрощение синтаксиса ссылок, которое не повредит репутации даже самого «белого» поискового оптимизатора.

Оригинальная статья на сайте searchengineland.com.
BBCode:
HTML:  
[ Скрыть ссылки ]


Просмотров: 1053 | Добавил: google
Всего комментариев: 1
avatar
0
1 Ваня • 06:39, 02.02.2012
Совершенно верно! Идея отличная, поддерживаю.




avatar
Форма входа
Календарь новостей
«  Июнь 2009  »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930
Поиск
Друзья сайта
Статистика

Здесь и Сейчас: 1
Прохожих: 1
VIP: 0