Рис. 12. Пример отчета по эффективности сайта в Google.
Обратите внимание: показатель CTR – относительный, он отражает процент пользователей, которые перешли по рекламной или органической ссылке на сайт, а не точное их число. На графике (рис. 12) можно увидеть, что в марте у сайта произошел резкий рост среднего CTR при неизменном количестве показов и незначительном росте позиции. Причины подобного изменения показателей могут быть разные, например:
• сайт предлагает сезонный товар, и потому активность на нем увеличивается в конкретный период;
• перемены в поведении пользователей, обусловленные маркетинговыми акциями;
• улучшение поискового сниппета;
• отладка параметров оптимизации.
Аналогичный отчет есть и в «Яндекс. Вебмастер» – в разделе «Поисковые запросы» на вкладке «Статистика запросов». Там же, в разделе «Индексирование», есть полезная вкладка «Мониторинг важных страниц». Добавляйте туда страницы, которые приносят вам больше всего трафика. Это позволит своевременно получать уведомления о критических изменениях, связанных с этими страницами, и быстро исправлять их.
Внимательно изучите все разделы «Яндекс. Вебмастер» и Google Search Console. Конечно, это потребует времени. Но правильные настройки всех разделов помогут эффективнее оптимизировать и продвигать сайт в поисковых системах.
Изучите вкладки «Запросы» в разделе «Эффективность» в Google Search Console и «Статистика запросов» в разделе «Поисковые запросы» в «Яндекс. Вебмастер». Эти страницы отражают часть запросов, по которым показывают сайт пользователям. Но главное – они покажут CTR этих запросов, а это крайне полезные данные. Опираясь на них, вы увидите, каким образом можно влиять на показатель кликабельности, чтобы существенно повысить объем поступающего на ваш ресурс трафика.
Метатег robots и HT TP-заголовок лучше рассматривать вместе. Потому что индексированием контента можно управлять на уровне страницы и даже конкретного текста на ней.
За настройку индексирования на уровне страницы отвечает HT TP-заголовок, а также метатег страницы; на уровене текста – html-элемент в коде страницы с атрибутом data-nosnippet.
Метатег robots отвечает за индексацию страницы. Он располагается в head страницы и выглядит следующим образом:
<!DOCTYPE html>
<html><head>
<meta name=”robots” content=”noindex” />
(…)
</head>
<body>(…)</body>
</html>
Вы можете указать вместо «robots» название конкретного поискового робота. Например, запретить индексировать и выводить ваш контент в новостях Google, но показывать его в основной выдаче и т. д.
Атрибут data-nosnippet используется для запрета индексации конкретного фрагмента текста на странице. Например, статьи на сайте могут начинаться с пространных описаний или отвлеченных историй, чтобы постепенно вовлечь читателя в тему. Но поисковики обычно формируют сниппет именно на основе первого абзаца. Если не управлять поисковым роботом, он может отразить в результатах поиска нерелевантную запросу информацию, которая не привлечет внимание к сайту. Либо приведет не ту категорию пользователей, и они быстро покинут сайт.
Кроме того, этот же атрибут можно применять, чтобы в результаты поиска не попадала служебная информация или технические описания, скажем названия рубрик или параметров фильтрации, артикулы для страниц карточек товара и т. д.
Используя код, вы можете сделать введение, как и любой другой фрагмент текста на странице, неиндексируемым. Для этого нужно открыть страницу в формате html и указать data-nosnippet. В тексте это может выглядеть так:
<p>Этот текст может быть показан и проиндексирован
<span data-nosnippet>а эта часть текста будет показана посетителям сайта, но не будет индексироваться роботом</span>.</p>
Здесь важно следить, чтобы код, который вы вставляете на страницу, соответствовал стандарту html и содержал все закрывающие теги.
При этом не следует использовать JavaScript для передачи атрибута data-nosnippet. Поисковый робот может начать работу раньше, чем включится скрипт, и в результате указанный атрибут не учтется.
Тег canonical незаменим при продвижении сайта. Он позволяет удалить дубли страниц, которые попали в индекс поисковой системы.
Представьте, что на вашем сайте есть страницы, которые дублируют друг друга, но при этом у них разные URL-адреса. Например, страница товара, который одновременно находится в двух разделах каталога, будет доступна по двум разным ссылкам, но контент на странице идентичен. В такой ситуации поисковая система посчитает эти две страницы дубликатами, что негативно скажется на ранжировании сайта как в Google, так и в «Яндексе».
Чтобы избавиться от подобных страниц, нужно на одной из них разместить тег rel=”canonical” и указать через него ссылку на основную страницу. Тогда страница, на которой размещен тег, будет называться неканонической.
Существует несколько способов сделать страницу канонической. К наиболее часто используемым относятся:
1. Тег rel=”canonical” <link> на страницах, ссылающихся на нее;
2. HT TP-заголовок rel=”canonical”;
3. Через sitemap (не лучший способ);
4. 301 редирект, он приведет к удалению из индекса неканонической страницы.
Есть и другие способы решения задачи, но отмечу: для начала лучше прибегать к первому или второму способу.
Конечно, это не вся информация, которая входит в тему поисковой оптимизации. Техническая сторона организации SEO весьма обширна, но это все-таки задача для специалиста.
Чтобы немного упростить процессы контроля за ним и подготовкой сайта, я подготовил чек-лист основных технических аспектов. В нем перечислены разделы и параметры, за которыми вы обязательно должны следить при работе с сайтом (Приложение 2).
Глава 3
Факторы ранжирования
Поговорим о свойствах, на основе которых происходит сортировка сайтов в результатах выдачи (ранжирование). Думаю, вы уже понимаете, что все поисковые системы используют определенный набор характеристик. Именно они дают поисковым роботам право решать, что один сайт или документ (в результатах могут отражаться различные виды файлов) появится в выдаче выше другого в ответ на поисковый запрос пользователя.
В связи с этим стоит отметить, что далеко не всегда поисковые системы принимают решение о ранжировании сайтов только на основании математических или статистических факторов. Есть такие люди, асессоры, которые оценивают сайт по заранее разработанной инструкции. Они – представители поисковой системы, которые заходят на сайт и проверяют, насколько он достоин занимать те или иные позиции в выдаче. Работа асессоров помогает получить объем размеченных данных для обучения алгоритмов искусственного интеллекта поисковой системы. Если в отчетах Google Analytics[18] в источниках трафика вы встретите строку google.com/evaluation/url?=, скорее всего, ваш сайт посещал асессор.
Существуют разные факторы ранжирования, условно их можно разделить на несколько больших групп:
• технические;
• текстовые;
• факторы ссылочной массы;
• поведенческие;
• коммерческие.
Технические факторы ранжирования. К ним относится структура сайта, качество написания html-кода, наличие битых (неработающих) ссылок, перелинковка[19], корректность robots.txt, скорость работы сайта, отсутствие ошибок на сайте, микроразметка, о которой мы поговорим позже. Технических факторов много, и, к сожалению, в рамках этой книги разобрать их все просто невозможно.
Текстовые факторы. Качество текстов, которые размещены на сайте. Помните, что они должны быть написаны в первую очередь для посетителей, а не для поисковых роботов. И чем