С 7 апреля по 13 мая проходил очередной учебный курс от ТопЭксперт.РФ – Полный курс SEO – 150 часов. Это был 4-й поток, отличающийся от предыдущих тем, что включал в себя не только очное, но и дистанционное обучение, а также возможность удаленной защиты дипломов.



Читать первую часть обзора «Информационный поиск»



Курс вели признанные эксперты и аналитики, имеющие большой практический опыт и выдающиеся достижения в области поискового продвижения и информационного поиска – Андрей Калинин (Mail.ru), Михаил Сливинский (Wikimart.ru), Алексей Чекушин (Wikimart.ru), Станислав Поломарь (Web-IT) и Леонид Гроховский, руководитель учебного центра ТопЭксперт.РФ. Слушателями курса были начинающие и опытные оптимизаторы, желающие приобрести или значительно повысить свою квалификацию.



Основной частью курса были лекции по поисковой оптимизации и аналитике, которые читали Михаил Сливинский, Алексей Чекушин и Станислав Поломарь.



Не смотря на то, что большая часть студентов присутствовала на лекциях удаленно, Алексей и Станислав смогли заставить всех с неослабевающим вниманием слушать свои лекции и принимать живейшее участие в обсуждении, не отвлекаясь ни на какие посторонние вещи (типа холодильника или телефонных звонков). Объясняя и демонстрируя на примерах приемы SEO, преподаватели успевали давать информацию, следить за общим обсуждением материала в чате и отвечать на вопросы не только студентов в аудитории, но и тех, кто слушал лекцию через вебинар. А Михаил Сливинский так и вовсе читал свой курс практически без кофе-брейков и перерывов на обед, с полного одобрения студентов, которые были рады задержаться еще на два часа сверх положенного времени, лишь бы услышать еще что-то интересное и полезное из области SEO-аналитики.



Предлагаем вашему вниманию обзор лекций этих специалистов.



Алексей Чекушин начал свой курс SEO с определения целей поисковых систем. По его словам, основная задача ПС – отвечать на вопросы пользователей. Основным заработком поисковых систем является контекстная реклама, а основным показателем – качество поиска.



Каковы же метрики качества поиска? Это:




Точность – множество найденных документов, отнесенное к общему множеству документов;

Полнота – отношение количества найденных документов к общему количеству релевантных документов;

F-мера – одновременное использование точности и полноты.


Метрики же, которые меряют качество алгоритмов – это DCG, NDCG и pfound. И студенты научились рассчитывать pfound, вот по этой формуле:





Далее были рассмотрены основные группы факторов ранжирования, которые для удобства, были отсортированы по значимости.



1. Поведенческие факторы. Одни из самых сильных – пары «запрос-документ», а также фактор последнего клика и отсутствие переформулировки запроса.



2. Ссылочные. PR – это вероятность, числовая величина, характеризующая важность страницы. Чем больше ссылок на страницу, тем она становится важнее. Кроме того, вес страницы А определяется весом, передаваемым страницей В. PR – это метод вычисления веса страницы путем подсчета важности ссылок на нее.



Основные проблемы PR: длительное вычисление, необходимость пересчета при малейшем изменении, плохая сопротивляемость спаму, «висящие узлы».



тИЦ – известный пример доменного PR. PR не учитывает тематичность ресурса, поэтому тИЦ можно легко нарастить нетематическими ссылками.



Из практической части лекции студенты узнали, с каких доноров лучше покупать ссылки, через какое время они начинают передавать вес, как правильно их закрывать от индексации, а также как можно определить спамность страницы блога и трастовость того или иного сайта.



Алексей также рассказал, что PR может быть и обратным (инверсным), поэтому обязательно надо тоже ссылаться на ресурсы с высоким PR.



3. Текстовые. Это то, что приводит на сайт трафик. В первую очередь, это семантика, в соответствии с которой наполняются страницы сайта, которые затем индексируются поисковым роботом, определяющим их релевантность пользовательским запросам, и лишь во вторую очередь – ранжирование. Сайт, нерелевантный запросам по которым он хорошо ранжируется, долго на хороших позициях не продержится.



Среди инструментов получения семантики Алексей назвал:



• Первичное придумывание



• Подсказки из Яндекс.Директ



• Статистика ключевых слов




Yandex.Wordstat



Adwords



Rambler Adstat




• Поисковые подсказки



• Счетчики




Собственный



Чужие




• Neiron



• Предсказание семантики



4. Сайтовые. Это URL-факторы и http-коды. Доменные зоны могут ранжироваться неодинаково. Фрихосты могут получать, как бонусы, так и пессимизацию для сайтов на них. Важность вхождения ключевого слова в домен и в URL.



Далее свое введение в SEO-науку представил Станислав Поломарь.



Станислав глубоко убежден, что SEO – это помощь ПС и обман этих самых ПС.



Помощь поисковым системам заключается в том, что облегчается индексация ресурса (настраиваются коды ответа, составляется sitemap, заполняется файл robots), обозначается региональность, оптимизируется подача и разметка содержания (структура, навигация, теги), используются микроформаты и расширенные сниппеты.



Обман же ПС заключается в накрутке различных факторов. Это – выделение факторов влияния, понимание эффективности и допустимости влияния, учет связанности факторов, а также текущее состояние ПС.



Станислав также разобрал факторы ранжирования, подробно остановившись на каждой группе. В дополнение к тому, что уже говорил Алексей Чекушин, студенты узнали, что такое BM25, кворум, тезаурус и переформулировки, что ссылочные факторы бывают статическими (не зависящими от запроса) и динамическими, что такое TF*IDF, граф кликов и BrowseRank.



Также Станислав великолепно рассказал про антиспам поисковых систем – с чем именно борются поисковые системы, при помощи каких инструментов, какие санкции налагают на ресурсы, где обнаружены признаки спама, и на какой срок. Ну и, естественно, перечислил все признаки, по которым поисковая машина определяет тот или иной контекст как спамный.



Что же делать оптимизатору в борьбе против антиспама поисковых систем?



– Учитывать рекомендации ПС



– Играть по правилам



– Используя понимание антиспама, искать максимально эффективный компромисс



Далее Станислав перешел к самой интересной части лекции, в которой коснулся оптимизации ссылочных факторов и объяснил студентам, что можно накрутить, и что и как нужно при этом считать. Например, так:





Следующая лекция Алексея Чекушина была посвящена индексированию сайта и взаимодействию с поисковыми роботами.



По словам Алексея, краулер не бежит искать по интернету ответы на заданные вопросы, а осуществляет поиск по уже проиндексированной базе. Краулинг осуществляется основным поисковым роботом и быстророботом Оранж. От быстроробота выдача идет без кэша, там может быть только название и description. Информацию о том, какие страницы нужно скрауливать, бот получает через Яндекс.Бар и Метрику.



Когда у основного бота не хватает краулингового ресурса (бюджета) подключается быстроробот, который быстро запихивает в индекс хотя бы title и description, чтобы по ним можно было найти этот полезный документ.



Источники данных для краулинга:




Уже обойденные страницы



Гиперссылки



Обычные



Из новостей (rss)



Из блогов (rss)



Текстовые ссылки



Ссылки из почты



XML Sitemap



Браузерные бары



Системы статистики



Addurl


У Яндекса есть бот под названием «дятел», он пробивает доступность страниц, также как и робот AdSense. Если вдруг на страницу были внесены какие-то глобальные изменения, то это все очень быстро проиндексируется, если на страницу ходят пользователи, использующие Яндекс.Бар.



Прюнинг – алгоритм, который на первичном этапе отсеивает документы, не соответствующие запросу.



Еще одним источником ссылок для поискового робота является Яндекс.Маркет. Также поисковик очень легко может брать ссылки из почты.



Как можно воздействовать на краулинг и индексацию? Можно запретить индексацию страниц через robots.txt и директиву disallow. Использовать 301-й и 302-й редиректы (последний не передает ссылочное). Еще можно прописать rel=canonical против дубликатов.



X-Robots-Tag прописывается в http-заголовке и имеет те же параметры, что и noindex. Также, в Яндекс.Вебмастере можно запретить брать сниппеты или вообще удалить ту или иную страницу.



Кроме запретительного воздействия, есть еще воздействие рекомендательное – ссылочная структура, HTML Sitemap, XML Sitemap.



Файл Robots.txt - это текстовый файл, находящийся в корневой директории сайта, в котором прописываются специальные инструкции (директивы) для поисковых роботов. Эти инструкции могут запрещать к индексации некоторые разделы или страницы на сайте, указывать на правильное «отзеркаливание» домена, рекомендовать поисковому роботу соблюдать определенный временной интервал между скачиванием документов с сервера и т.д.



Директивы делятся на обязательные и рекомендуемые (allow и disallow – обязательные, host - рекомендуемая). Они выполняются не только ботами поисковых систем, но и некоторыми другими (Solomono). Необходимо помнить, что существует разница в синтаксисе для поисковых систем.





Алексей Чекушин: «Почему ПС не может забить на robots.txt? Религия не позволяет».



XML-sitemap – это то место, куда нужно добавлять урлы тех страниц, которые не в индексе. Нужно пробить индексацию своего сайта через любой парсер позиций, и если каких-то страниц нет в индексе – добавить их в XML-sitemap.



После этого последовал небольшой практикум, во время которого студенты научились проверять индексацию страниц сайта, а также искать дубликаты через выдачу поисковых систем.



Чем опасны дубликаты страниц? Тем, что они распыляют краулинговый бюджет, появляется вероятность выбора неосновного документа как наиболее вероятного и даже неиндексирования основного документа. Дубликаты ищутся сравнением индексов ПС, затем выделяются причины их появления, которые безжалостно устраняются, а сами дубли закрываются при помощи rel=canonical.



Далее Алексей прочел очень интересную и полезную лекцию о перелинковке. Ведь как оптимизировать сайт? Все знают, что нужно написать текстов, закупить ссылок и сделать грамотную перелинковку. Так вот студенты из этой лекции действительно узнали, что такое «грамотная перелинковка».



По словам Алексея, перелинковка решает сразу несколько задач:





Нюансы этих задач заключаются в том, что поисковик не должен видеть навигационные ссылки (хлебные крошки, ссылки со вложенных страниц на главную), некоторые seo-ссылки должны быть доступны только одному поисковику, а пользователь не должен видеть seo-ссылок вообще.



Очередной практикум от Алексея Чекушина был посвящен тому, как можно спрятать seo-ссылки от пользователя, что именно нужно прятать и как. Студенты должны были заучить наизусть, что текст – это свойство страницы донора, с которой стоит ссылка, а анкор – это свойство акцептора; поэтому можно закрыть текст ссылки, не закрывая анкор, и наоборот.



Когда студенты научились закрывать ссылки при помощи noindex, nofollow, а также простого и сложного j-скрипта, Алексей перешел к рассказу о размещении внутренних ссылок:



1. Статические блоки - просты в реализации, хорошо подходят для задач ранжирования, требуют первичного распределения по страницам.



2. Динамические блоки – также просты в реализации, особенно хороши для решения задачи оптимизации под Google, а кроме того, не требуют необходимости первично задавать распределение.



3. Простановка под бота – сложна в реализации, позволяет быстро индексировать новые ссылки выбранным поисковиком, хорошо подходит для задач ранжирования.



Подробному разбору задач ранжирования и индексации, анкорному ранжированию и ранжированию PR Алексей посвятил вторую часть своей лекции. Во время которой, в рамках практикума, студенты учились подсчитывать PR и составляли идеальный анкор-лист.



Одну из самых впечатляющих лекций прочитал студентам Михаил Сливинский. Он рассказал об аналитике поискового продвижения, заразив желанием анализировать даже тех, кто напрочь отрицал пользу какого-либо анализа в SEO.



Михаил начал с того, что попытался разрушить некоторые из самых популярных seo-иллюзий. Одна из них звучит так: «Был бы сайт, а покупатели найдутся», на самом деле информационные технологии все больше становятся просто фактором производства или ресурсом, необходимым для сохранения конкурентоспособности, но недостаточным для получения преимущества. Сам по себе сайт никому ничего не дает, это точно.



Точно также Михаил опроверг утверждение, что от поиска как-то можно скрыть низкую ценность сайта, что SEO – абсолютно универсальный инструмент, что хорошая оценка асессора гарантирует хорошие позиции, что контекст и SEO – взаимозаменяемы, только SEO дешевле и т.д.



По словам Михаила, многие интернет-предприниматели сегодня буквально запутались в трех соснах:





А современные реалии SEO таковы, что на одной чаше весов находятся сроки и управляемость (и тот и другой параметр контролируется слабо со стороны заказчика), а на другой – сравнительная дешевизна и отсутствие альтернативы. И второе всегда перевешивает.



Как же построить эффективное SEO? По словам Михаила, семантика, ссылки, контент, требования ПС – это только верхушка айсберга, а базироваться все это должно на аналитике и автоматизации процессов.



SEO-аналитика – это повышение эффективности процессов, поиск эффективных методов продвижения, саппорт оптимизаторов.



Особенное внимание Михаил уделил анализу конкурентов. Студенты узнали, как правильно провести ссылочный, поведенческий, структурный и технический анализ сайта конкурента. По этому принципу Михаил советует анализировать сайты, имеющие высокие позиции в ПС, дабы обогащаться идеями и учиться их правильному техническому исполнению. Также, анализ конкурентов зачастую хорошо помогает увидеть свои ошибки, понять, в чем они заключаются и как их лучше исправить.



Нужно ли SEO поисковым системам? Михаил считает, что ПС делят SEO-методы на допустимые, недопустимые и рекомендованные поиском.



Рекомендованные – это sitemap, региональность и robots.txt. Допустимые – это ссылки, контент и ЧПУ, например. А недопустимые – это дорвеи, клоакинг и накрутки.



О том, как оценить эффективность SEO, какие существуют SEO-модели, метрики и KPI поискового продвижения, Михаил выяснял, подключив к разговору студентов. Инициировав жаркую дискуссию, во время которой родилось немало стоящих идей и умозаключений, он довольно улыбнулся и сказал, что курс специально был сделан так, чтобы научить студентов думать, а не просто быть пассивными потребителями знаний.



Знания, не применяемые на практике, являются скорее злом, чем добром, - об этом не уставал повторять и Леонид Гроховский во время практических занятий. На усвоение нового материала и выполнение домашнего задания у студентов были ровно сутки, во время которых они практически не спали (ибо после вечерних вебинарских занятий обсуждение плавно перетекало в скайп, где более сведущие в SEO помогали разобрать какие-то сложности новичкам), не ели и не работали – только оптимизировали. Обучение на курсе для каждого превратилось в своего рода квест, который во что бы то ни стало надо было пройти.



О том, как проходила подготовка к диплому, сдача экзамена и защита, а также чем закончился этот грандиозный квест под названием «Полный курс SEO за 150 часов» читайте в нашем следующем обзоре.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии