В минувшую пятницу на страницах издания Search Engine Land появилась весьма любопытная информация о том, насколько часто за последние 10 лет специалисты Google использовали оценку сайта и удаление его из поисковой выдачи вручную. Аналогичные данные на русском языке можно найти на официальной странице Google, посвященной борьбе со спамом.


Первый график показывает количество доменов, проверенных вручную, в отношении которых сотрудники Google предпринимали определенные меры.


Самую большую категорию сегодня составляет так, называемый, «агрессивный спам». Под этим понятием интернет-гигант подразумевает сайты, грубо нарушающие Руководство по качеству Google для вебмастеров, то есть: ресурсы, использующие клоакинг, неестественные ссылки, дублированный контент и пр. В компании существует четкое определение данной категории веб-спама: «Ресурс может быть оценен как «агрессивный спам» в случаях, когда его разработчики используют агрессивные техники, такие как автоматическое генерирование контента страниц, клоакинг, воровство контента с других сайтов. Или же, если на сайте замечены другие грубые нарушения Руководства по качеству поиска Google для веб-мастеров».


Не важно, найдут ли ассесоры все эти факторы на одном ресурсе вместе или обнаружат лишь один из перечисленных элементов – Google обязательно расценит такой сайт как «агрессивный спам» и удалит его из выдачи.


В пункт «Старые данные» попадают сайты «вычищенные» Google вручную до октября 2007 года.


В случаях, когда эксперты Google лично принимают меры в отношении сайтов, веб-мастерам отправляются специальные уведомления. На графике приведено количество уведомлений о спаме, отправленных владельцам сайтов с помощью Инструментов для веб-мастеров.


Кроме того, на графике четко видно, что «пик веб-спама» был обнаружен командой Google в июне 2011 года, тогда за месяц было зафиксировано 553 994. После этого команда Google решила ввести в свою практику специальные хроники, фиксирующие основные вехи борьбы с поисковым спамом.


Также представители Google напоминают, что, устранив нарушения, владелец сайта всегда может направить заявку на повторную проверку сайта и пересмотр его позиций. Однако интернет-гигант сообщает: «Как показывает практика, в отношении большинства сайтов, владельцы которых отправляют нам запросы на повторную проверку, не принимались какие-либо меры. Чаще всего наблюдаемые явления связаны с естественными колебаниями трафика, изменением алгоритмов или техническими проблемами, из-за которых Google не может получить доступ к сайту. На этом графике показан еженедельный объем запросов на повторную проверку с 2006 года».


Отметим также, что на днях Google официально опубликовал новую версию руководства для асессоров по оценке качества поиска. Документ насчитывает 43 страницы и является официальной сокращенной версией руководства, утвержденного в ноябре 2012 года. Ранее в интернет уже просачивалась версия 3.27 General Guidelines. Она была датирована 22 июня 2012 года и содержала 161 страницу.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии