27-28 октября в Лондоне прошла двухдневная конференция SearchLove 2014. Во время этого мероприятия традиционно были рассмотрены вопросы поискового продвижения, внутренней аналитики сайтов и оптимизации, разработки стратегий ссылочного продвижения и маркетинговых кампаний.



В рамках программной части конференции прозвучал доклад Дэвида Соттимано (David Sottimano), ведущего SEO-консультанта компании Distilled, «SEO, основанное на данных» («Data Driven SEO»), посвященный автоматизации поискового продвижения интернет-ресурсов.



IMG_4341.JPG



Может ли пост ранжироваться только по ключевым словам в URL? Ответ: Да.



Что делает мета-тег noindex? Зачем его проставлять? Атрибут noindex удаляет страницу из индекса поисковых систем. Кроме того, он влияет на показатель сканирования робота Googlebot:



searchlove-london-dave-sottimano-using-data-to-win-arguments-6-638.jpg



По мнению спикера, основной вопрос, который волнует пользователей, – можно ли доверять информации, представленной в статье на сайте? Важное значение при этом имеют следующие элементы страницы:






Указание автора;

Наличие информации об авторе;

Наличие фото автора;

Логотип;

Контактная информация;

Кнопки социальных сетей (social proof).




searchlove-london-dave-sottimano-using-data-to-win-arguments-24-638.jpg



Вот зачем нужно управляемое данными SEO, отметил докладчик. Фраза «лучшие специлисты» – всего лишь общее выражение, которое не имеет ничего общего с действительностью. Пользователь хочет знать, чей контент он читает, и иметь возможность составить свое впечатление о его авторе при помощи поиска в интернете.



По словам докладчика, постулат "Больше исходящих, меньше входящих ссылок" – работает, но не всегда.



Чем проще применяемые схемы – тем лучше. Иногда нужны дополнительные данные. Вопрос состоит в том, где и как их получать. Сводные таблицы и графики, которые SEO-специалисты делают для клиентов выглядят примерно так:



searchlove-london-dave-sottimano-using-data-to-win-arguments-34-638.jpg



Этого можно избежать. «Нужно направить подходящих людей на подходящие страницы, и не надо ничего изобретать с трафиком!», - отметил докладчик.



Докладчик также сообщил, что для многоязычных версий веб-сайтов необходимо использовать атрибуты hreflang и rel=“canonical”, чтобы помочь сканирующему боту Google определить качество контента и его целевую аудиторию. Если все сделать правильно, Google будет считать, что контент предназначен именно для этого региона.



Атрибут hreflang (hreflang: rel=“alternate” hreflang=“x”) применим к многоязычным веб-сайтам, страницы которых наполнены в основном одним и тем же контентом, либо к страницам, с дублированным контентом на одном языке, но ориентированном на разные регионы. А многоязычный канонический тег (rel=“canonical”) сообщает гуглоботу, что определенный URL предпочтительнее остальных; что это наиболее важная переведенная версия контента какого-то URL.



Перед использованием атрибуты hreflang и canonical обязательно нужно протестировать. Перед началом тестирования важно тщательно продумать всё, что будет проверяться:



searchlove-london-dave-sottimano-using-data-to-win-arguments-42-638.jpg



Как понять, работает ли конфигурация? Для этого нужно обратить внимание на следующие данные:






Ранжирование ресурса в выдаче;

Органический трафик;

Правильные страницы, которые отображаются в правильных странах.

Иногда имеет смысл правильно настроить региональные версии сайтов, и ресурс будет лучше ранжироваться в выдаче, отметил докладчик.



Он также дал слушателям несколько советов:



Сценарий № 1: Я забыл отследить данные. 



Чтобы увидеть историю страницы, можно использовать такие инструменты, как Semrush.com; Screenshots.com или Spyfu.com.



Сценарий № 2: Как найти примеры в Сети? 



Чтобы пофиксить различные сценарии на страницах, можно использовать такие инструменты, как Nerdydata.com и Linkrisk.com.



Сценарий № 3: Не получается открыть CSV-файл в Excel. 



Проблемы с тайтлами веб-страниц помогут решить Delimite и reCsvEditor:



searchlove-london-dave-sottimano-using-data-to-win-arguments-65-638.jpg



Сценарий № 4: Нужны данные по всем веб-страницам. 



Помогут инструменты Import.io и Scrappinghub.com:



searchlove-london-dave-sottimano-using-data-to-win-arguments-67-638.jpg



Дэвид Соттимано обратил внимание аудитории на то, что в будущем поиск будет становиться всё более сложным. Зачем SEO-специалисты пытаются анализировать огромные массивы машинных данных?



searchlove-london-dave-sottimano-using-data-to-win-arguments-74-638.jpg



Докладчик рассказал, что он использует данные по органическим сессиям пользователей в качестве объективного показателя хорошей или плохой работы ресурса. Ниже показано, как с помощью статистики поисковых запросов по блогу можно определять эффективность работы:



searchlove-london-dave-sottimano-using-data-to-win-arguments-76-638.jpg



В процентах это выглядит так:



searchlove-london-dave-sottimano-using-data-to-win-arguments-77-638.jpg



В настоящее время, отметил спикер, технологии машинного обучения набирают силу. Поисковые системы лучше аналитиков умеют определять качество каждой из составляющих веб-сайта: как контента, так и технических аспектов.



Изменилось многое, если раньше можно было списаться с блогером по e-mail и обменяться гостевыми постами, то сегодня этот контент, да и способ его распространения, совершенно бесполезны. 



Дэвид Соттимано настоятельно порекомендовал слушателям не использовать метрики, которые сильно коррелируют со статистикой ранжирования.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии