Перевод статьи Денни Салливана (Danny Sullivan), главного редактора Marketing Land и Search Engine Land, который является общепризнанным авторитетом в вопросах поискового маркетинга и интернет-маркетинга. В SEO с 1995 года.



Источник



Когда корпорация Google заявила о том, что собирается ввести наказание за излишнюю оптимизацию, возникло ощущение того, что интернет-гигант достиг в своем развитии момента, когда не остается ничего другого, как пытаться «совершенствовать» качество поиска с помощью системы наказаний и фильтров. К каким же последствиям может привести подобное поведение крупнейшего в мире игрока поискового рынка? Рассмотрим подробнее:



Что Google считает поисковым спамом?



В 1999 г соучредитель Google Сергей Брин торжественно заверил нас в том, что никакого поискового спама не существует: «Google немного отличается от других поисковых систем тем, что мы никогда никого не баним. Мы никогда не верили в спам, как в механизм вытеснения кого-либо из нашего индекса. Всем вам известен фундаментальный принцип, который мы используем: релевантность страницы по отношению к поисковому запросу. И вам хорошо известно о существовании таких страниц, появление которых в индексе крайне маловероятно, просто потому, что они нерелевантны».



Сегодня Google подготовил целый раздел, в котором разъясняет свое понимание спама. Каждый пункт, упомянутый в нем, подобен заплатке, призванной «заткнуть» очередную брешь в алгоритме ранжирования.



Некоторые аспекты борьбы Google с поисковым спамом затрагивают вопросы разработки ресурса: так, например, всем нам известно, что «скрытый текст» на веб страницах - это плохо, потому что с его помощью веб-мастера могут неоправданно высоко поднять позиции своих страниц в поисковой выдаче.



К сожалению, на протяжении многих лет Google сосредотачивал свое внимание на технических деталях, совершенно не пытаясь выстраивать диалога с вебмастерами. Так, например, если вебмастер создал страницу, наполненную изображениями, и добавил подписи с картинок в скрытый текст – это может и не означать, что он «использует запрещенные приемы». Просто разработчик сайта хотел помочь поисковым машинам лучше проиндексировать изображения. Однако весьма вероятно, что подобный сайт будет забанен Google, даже несмотря на то, что владелец ресурса не стремился попасть в поисковую выдачу, используя не любимые Google методы «со злым умыслом».



Также ряд ограничений Google касается покупки и продажи ссылок. Такое поведение вебмастеров поисковик рассматривает как «подтасовку результатов». Поисковик хочет ликвидировать любую возможность влияния оптимизаторов на выдачу при помощи денег.



Однако и здесь зачастую возникают спорные моменты: так, например, если издатель напишет обзор продукта, который был подарен ему в качестве благодарности за публикацию, то оставленная ссылка, согласно правилам Google, вполне может считаться «купленной». Далее возникает вопрос: если ссылка попадает в эту категорию, стоит ли блокировать все ссылки, ведущие с данного сайта на продающий ресурс, или только ту, которая оставлена на данной конкретной странице? И что думает Google по поводу партнерских ссылок?



Отметим, что в свое время представители Google заявляли, что алгоритмы поисковика научились отлавливать и понижать значение партнерских ссылок в основных программах, таких, например, как Amazon. Однако не практике он не делает того же в отношении ряда других аналогичных ссылок.



Как же определить, какие ссылки остаются безопасными с точки зрения их размещения на ресурсе?



«Недостаточно хорош» с точки зрения Google



В настоящее время ситуация усложнилась еще больше: Google может «наказать» не только откровенно «плохой» ресурс, но и «недостаточно хороший».



Весьма показательным примером этому является прошлогоднее обновление фильтра Panda, когда страницы, находившиеся на верхних позициях выдачи в течение длительного времени, вдруг исчезли из выдачи. Метаморфоза легко объяснялась тем, что Google начал использовать новую систему принятия решений о том «хороший» или «плохой» контент опубликовал издатель на своем ресурсе.



Что же следует подразумевать под формулировкой «низкое качество сайта»? Интернет-гигант подготовил список из 23 вопросов, призванный помочь контролировать качество контента, но в большинстве случаев ответ заключался в том, что «Google расценивает данный ресурс как низкокачественный, потому что он так видит его».



Эту проблему можно было бы с легкостью решить лишь в том случае, если бы у издателей была возможность взглянуть на свои сайты глазами Google. Но, к сожалению, они лишены ее. Имеется только набор догадок и вопросов оптимизаторов, к которым добавиться еще один: «А не переоптимизирован ли мой сайт?».



Слишком много SEO



Объективно сегодня не существует фактора, который бы гарантировал высокий рейтинг сайта в поисковых системах. Без сомнения, в каждом поисковом запросе Google опирается на множество критериев, пытаясь добиться приемлемого результата. Одни из этих критериев значат больше, другие - меньше, но предполагается, что они влияют на ранжирование в совокупности.



Действительно, такая комбинация критериев защищает поисковую систему от ошибок. Что будет, если кто-то закупит огромное количество ссылок с целью доказать обратное? Обычно Google не поддается на подобные трюки. Учитывая комплекс критериев, он сохраняет релевантность поисковой выдачи.



Но теперь, представим, что нашлись люди, которые используют комбинацию тех методов, которые сам Google посоветовал использовать в подготовленном им руководстве. Последствия этого могут быть не самыми приятными. Меньше месяца назад Мэтт Каттс (Matt Cutts) заявил: «Мы немного усложнили правила игры для людей, которые предпочитают заниматься «переоптимизацией» вместо того, чтобы просто создавать хороший контент и стараться представить посетителям великолепный сайт».



Что же такое «переоптимизация», и совокупность каких факторов укажет нам на нее? Определенного ответа на данный вопрос пока не существует. Не лучше ли тогда вообще отказаться от SEO?



При таком подходе можно легко впасть в панику, и признать г-на Каттса противником поисковой оптимизации. Однако если вдуматься в слова главного инженера Google, то складывается впечатление, что поисковик просто-напросто хочет «наказать» сайты за чрезмерно спамный контент, не затронув при этом тех, кто использует методы SEO, которые рекомендуют представители Google: «Мы научились выявлять тех, кто злоупотребляет спамными методами, размещая на страницах своих ресурсов слишком много ключевых слов, обмениваясь слишком большим количеством ссылок, или делающих что-либо другое, выходящее за рамки того, что можно было бы ожидать от человека, создающего обычный тематический сайт».



Исходя из этого, можно сделать к вывод, что «перебор» сразу по нескольким направлениям может привести ресурс к печальным последствиям. Однако при изолированном использовании инструментов SEO результат будет положительным.



Почему отдельные приемы SEO приравняли к поисковому спаму?



Ввод Google «новой системы штрафов» вызвал массу дискуссий на тему того, что же вообще подразумевается под SEO? До недавнего времени Google действовал очень аккуратно и не ставил знака равенства между SEO и спамом. Эти понятия различались между собой также как e-mail маркетинг и почтовый спам. Однако разговоры о «переоптимизации», буквально, стерли границу между этими понятиями.



Мэтт Каттс говорит, что предстоящие изменения «немного усложняют правила игры». Но в этой игре нет правил. Некоторые превосходные сайты прекрасно себя чувствуют без явного использования SEO. Другие же исчезли из поисковой выдачи, потому что они не смогли следовать «лучшей практике поисковой оптимизации». Важно отметить, что обе ситуации справедливы и для низкокачественных сайтов.



Игры с PageRank



Опасения Денни Салливана состоят в том, что, упоминая о «переоптимизации», Google пытается успокоить толпу ненавистников SEO, которые объясняют любые неудачи в продвижении сайта тем, что система ранжирования поисковика имеет серьезные проблемы.



Некоторое время назад пользователи пришли в негодование от обилия спама, появившегося в комментариях? Многие обвинили Google в том, что его эксперименты с PageRank привели к возникновению этого явления. В 2005 году владельцам блогов рассказали об атрибуте nofollow, как о способе предотвращения передачи веса по ссылке. Однако решить эту проблему до сих пор не удалось - она остается способом манипулирования выдачей Google и головной болью для ряда владельцев сайтов.



После того, как злоупотребление контентом, купленным на биржах, вызвало всеобщее негодование пользователей, Google подарил им очередной апдейт фильтра Panda, который затронул 12% поисковых запросов. Можно подумать, что теперь биржи контента канули в лету, а качество поиска улучшилось на 12%. На самом же деле, никто не может с определенностью сказать, улучшилась ли ситуация после введения Panda, или наоборот, усугубилась. Мы не имеем никаких возможностей для проведения подобной оценки.



Люди по-прежнему ругают качество поиска. Теперь они жалуются, что ситуацию ухудшает плагин «+1». Удастся ли успокоить их после введения штрафов за переоптимизацию? Нет никаких сомнений в том, что запуск обновленного алгоритма изменит выдачу по определенному проценту запросов. Снова создастся впечатление того, что ситуация изменилась к лучшему.



А что в итоге?



Рассмотрим, как обстоят дела на самом деле: если ввести в строку поиска Google запрос «SEO», то сегодня, по-прежнему, в первой десятке найдутся компании, поднявшиеся сюда благодаря ссылкам из шаблонов блогов, подвалов клиентских сайтов или из форумов.



В январе 2010 года Денни Салливан рассказал об этом команде Google, в чьей компетенции - поддержание высокого качества поиска. В октябре того же года он затрагивал данную тему в публикации «Как «ориентация на свежесть» помогает Google скрывать проблемы релевантности выдачи» (How The “Focus On First” Helps Hide Google’s Relevancy Problems). Однако реакции Google на это не последовало.



В статье приводятся элементарные вещи, которые Google может легко обнаружить и исправить, тем самым повысив эффективность собственной работы. Если же Google не обращает внимания на те запросы, в которых он просто обязан поддерживать идеальный порядок, например запрос [SEO], то есть ли у нас основания полагать, что ситуация изменится к лучшему, после введения очередных штрафных санкций.



Игнорирование таких элементарных ошибок не является чем-то неожиданным. Каждый месяц появляются новые статьи, связанные с проблемой поискового спама. Например: «Как «мусор» попадает в ТОП выдачи: независимое расследование».



В 2010 году была опубликована история Джилла Уэлена под заголовком: «Дорогой Google... Перестань делать из меня идиота!». В том же году Рэнд Фишкин (Rand Fishkin) описал, как использовать спам в целях оптимизации, но предупредил о том, что не стоит соблазняться простотой данного метода.



Cегодня основное внимание необходимо уделять качеству контента, совершенствованию юзабилити и использовать лишь допустимые приемы SEO-оптимизации. При этом недостатки Google не должны использоваться оптимизаторами для оправдания собственных недоработок и злоупотреблений. Нам не нужны штрафы и наказания. Мы хотим, чтобы Google и Bing (который имеет аналогичные проблемы) нашли способ поощрять хорошие страницы и пессимизировать плохие.



Также можно согласиться с позицией Google, предусматривающей наказание тех страниц, верхняя часть которых перегружена рекламой. Особенно учитывая то, что они продолжают «захламлять» поисковую выдачу. И, может быть, перед тем как ввести новые штрафы, Google исправит те недостатки, которые ему уже хорошо известны. Возможно, поисковику стоит подумать о том, какая неразбериха возникнет от смешивания понятий «SEO» и «спам», из-за разговоров о «переоптимизации». Сегодня, как никогда, назрела необходимость фундаментального совершенствования алгоритма ранжирования, вместо обычного «латания дыр».



Кнопка «+1» привнесла в поисковую выдачу определенные изменения, и является именно тем типом фундаментальных изменений, которых все так ждут от Google. Остается лишь надеяться на то, что Google, и Bing найдут верное сочетание персональных и социальных сигналов.



Примечание редакции searchengines.ru: в свою очередь отметим, что Западные аналитики рынка окрестили последние приемы Google не иначе, как «прыжком через акулу». Тем самым они подразумевают, что интернет-гигант уже исчерпал все разумные идеи по качественному улучшению собственной поисковой выдачи и перешел к радикальным методам.



Что же касается российской поисковой действительности, то вопросы, которые в последнее время оптимизаторы задают представителям Яндекса также во многом касаются именно фильтров и наказаний. Так, например, на круглом столе «Яндекс и SEO» чаще всего звучали следующие высказывания оптимизаторов: «Когда появятся нормальные правила и рекомендации о том, что такое качественный сайт (СДЛ)?», «Почему блоггеры или вебмастера должны быть спецами и делать свои сайты такими, как хочет Яндекс?», «Что происходит последнее время (чуть меньше года) с индексацией многостраничных сайтов (от 200 страниц)? На подавляющем большинстве новых качественных (!) сайтов индекс просто ужасный!» и т.п.



Обилие подобных вопросов к представителям поиска наводит на мысль, не готовится ли и Яндекс, подобно Google, совершить свой «прыжок через акулу»… 



Перевод: Александр Никитин




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии