Решили продвигать сайт в поисковиках? Отлично! Но не спешите сливать бюджет на рекламу: для начала проверьте свой ресурс на наличие ошибок и проблем. Сегодня редакция вместе с SEO-специалистом REG.RU Гузель Егоровой расскажет, что такое SEO-аудит сайта: зачем и как его нужно проводить, какие сервисы и программы можно для этого использовать. 


Что такое SEО-аудит сайта?

Что такое SEO: это набор мер для повышения значимости сайта в поисковиках и, как следствие, привлечения поискового трафика (впрочем, об этом вы уже знаете из наших предыдущих постов :)). Аудит — это оценка качества сайта по определённым критериям: мы анализируем сайт, проверяем соответствие требованиям поисковых систем, которые и определяют качество сайта. Всё это позволит понять, что именно стоит предпринять, чтобы улучшить ранжирование страниц и привлекать на сайт больше пользователей из поиска.


Зачем нужен SEO-аудит?




Аудит нужен не только для выявления ошибок на сайте. SEO-анализ даёт возможность оценить, насколько ваш сайт «нравится» поисковым системам, и какие из найденных ошибок нужно исправить. Благодаря такому анализу вы сможете не только  оценить перспективы своего проекта, но и выделить приоритетные правки. 


В зависимости от того, как поисковик оценит вашу страницу, зависит место, на котором окажется ваш сайт в результатах поиска по определённому запросу. При низком качестве страницы она может быть удалена из поиска и не участвовать в выдаче. Аудит выявляет страницы, которые требуют доработок, и на его основе можно составить список необходимых правок для сайта. 


Если поисковик при обходе сайта счёл страницу недостаточно качественной, она перестаёт учитываться при ранжировании сайтов в момент показа пользователю выдачи на его запрос.


Аудит может принести большую пользу там, где условно «плохие» страницы мешают ранжироваться хорошим. Например, интернет-магазин может увеличить целевой трафик, если исправит товарные страницы, которые поисковик воспринимает как дубль из-за некорректного оформления или низкого качества. Аудит помогает такие страницы поймать, и небольшие правки на них принесут трафик. 


Получается, что главная цель аудита — выявить самые доступные способы увеличения трафика на сайт в целом и на определённые страницы в частности. После аудита стоит составить план работ и на первый план вынести те, которые принесут наибольший эффект при наименьших затратах на их реализацию. 


Низкие позиции сайта в поиске могут быть не только результатом конкретной ошибки, но и совокупности факторов. Поэтому, не стоит исключать из списка мелкие доработки, которые могут показаться незначительными. Когда все самые важные работы уже сделаны, внесение отдельных корректировок может сделать сайт более релевантным для поисковика по сумме оценок показателей сайта при его сравнении с конкурентами.


Поэтому перед стартом работ по оптимизации сайта необходимо провести аудит и исправить выявленные ошибки, чтобы зачистить фон и понимать, что происходит с сайтом в результате конкретных работ по продвижению.


Как проводить аудит сайта? 

Перед тем, как проводить SEO-аудит, нужно тщательно изучить сайт, его специфику и погрузиться в тематику. Универсального чек-листа или шаблона, подходящего к любому проекту, не существует. Тем не менее, есть общие подходы к тому, как сделать анализ сайта. 


Для первичного анализа будет достаточно этих инструментов: 


Краулер для оценки вашего сайта (программа для перебора страниц сайта. Примеры — Screaming Frog SEO Spider, Netpeak Spider или SiteAnalyzer)

RDS bar (плагин для браузера для анализа SEO-показателей сайта). Полезен как для оценки своего сайта, так и конкурентов. 

Панели инструментов вебмастера от Яндекс и Google. 

В RDS bar интересны 3 параметра: количество проиндексированных страниц в Яндекс и Google, данные Linkpad по количеству ссылающихся доноров. 


На хорошем сайте количество проиндексированных страниц в Яндекс и в Google должны примерно совпадать. Яндекс показывает в индексе страницы, которые он счёл достаточно качественными, чтобы ранжировать их в поиске по каким-то ключевым фразам. Google показывает количество страниц всего (всё, что нашел робот). 



Существует понятие расширенного индекса и основного:


Основной индекс в Google — это страницы, которые участвуют в поиске по каким-то ключевым фразам. 

Расширенный индекс — это вообще все страницы, до которых добрался робот. Они участвуют только в расширенном поиске по самому сайту, то есть ни по каким фразам они не показываются. 

У Яндекса тоже есть расширенный индекс, он называется «Загруженное» (можно посмотреть в панеле веб-мастера). По идее, на хорошем сайте расширенный индекс должен быть примерно равен основному, то есть не должно быть плохих слабых низкокачественных страниц. 


Если разница проиндексированных страниц в Яндекс и Google более чем в 1,5 раза,  нужно проверить, какие страницы в индексе какой поисковой системы находятся (например, с помощью Rush-analytics), или методом «пристального взгляда» оценить, какой пласт страниц попадает в индекс (страницы профилей, пагинации, запароленные и т.п.), и запретить доступ к нему через файл robots.txt. Также вы сможете выявить важные страницы, которые по каким-то причинам не попали в индекс.


Что ещё проанализировать? 

Проверьте ссылочный профиль

Один из показателей качества сайта для поисковиков — количество ссылок на ваш сайт с других ресурсов.


С помощью Linkpad можно поверхностно оценить ссылочный профиль сайта. Как это работает? Есть роботы, которые гуляют по Интернету и собирают данные о ссылках в базы — это Ahrefs, Serpstat, Majestic, Megaindex, Linkpad. Ни один из этих сервисов не обладает полной информацией, поскольку роботы не могут обойти вообще весь Интернет (и поисковые роботы в том числе). С этим ещё связана и временная задержка — поставленная ссылка может не сразу проиндексироваться. Поэтому при анализе графика ссылок надо иметь в виду — для того роста, который видно на графике, по факту ссылки были проставлены 1-2 месяца назад. 



Анализ REG.RU с помощью Linkpad

Уровень спамности ссылочного профиля — важный критерий. За спамные анкоры можно получить фильтры — Минусинск в Яндексе и Пингвин в Google (ограничивают сайты в ранжировании на срок от одного до нескольких месяцев, что может привести к значительной потере трафика из поиска). 


Спамный анкор — это ключ из семантического ядра, который используется вместо текста ссылки. Если таких анкоров много, стоит либо разбавить их, либо удалить совсем.


Проанализируйте сниппеты


Заголовок сниппета обычно берётся из тега Title. Текстовая часть берётся из текста, либо из мета-тега Description. Сниппеты могут быть дополнены ссылками, адресом, телефоном, временем работы, картинкой, ценой, блоком вопросов-ответов. Эти данные обычно подтягиваются из микроразметок на сайте. 


Теги Title и Description нужно прорабатывать и прописывать для всех страниц сайта, в том числе и для не продвигаемых. Качественное оформление других страниц является одним из факторов оценки ресурса поиском и показывает, что вы заботитесь о каждой странице своего сайта. Где найти и прописать мета-теги — читайте в нашем посте о базовой оптимизации сайта


Проверьте заголовок H1

Заголовками H1 называются слова, словосочетания или фразы, которые обобщают смысл текста. Нам вовсе необязательно читать весь текст статьи, чтобы понять, о чем же в ней будет идти речь. Мы бросаем взгляд на заголовки и подзаголовки и решаем, интересен ли нам этот материал, стоит ли её читать.


Разметка Н выстраивает иерархию заголовков в тексте. Содержимое в теге Н1 читается поиском как заголовок текста. Если в тексте несколько Н1 — поиск выбирает один из них на своё усмотрение. Из-за одинаковых заголовков на разных страницах может происходить смещение релевантности. 


Важно, чтобы на странице был один заголовок, который должен сообщать поисковому роботу о содержании текста на странице. Поэтому обычно в H1 используется высокочастотный ключ. 


Найдите 404 ошибки

Ошибки 404 на сайте — это нормально (был товар — нет товара). С 404 страницы долго не живут: они остаются в таком статусе около 2 недель, а потом убираются из индекса. Но если на эти страницы есть ссылки, то робот будет по ним переходить, поэтому нужно убрать со своего сайта ссылки на 404. Этим вы покажете поиску, что пользователь переходя по ссылкам на вашем сайте всегда попадает на рабочие страницы с актуальным контентом. Если на страницу, которая стала отдавать 404 ответ есть внешние ссылки, настройте редирект на рабочую страницу сайта. 


Аналогичная ситуация — 3ХХ редиректы. Если на страницы с редиректом есть ссылки на сайте, то робот будет по ним переходить. Нужно сразу дать ссылку на рабочую страницу, исключив шаг с редиректом. 


Оптимизируйте изображения

Ещё одна распространённая ошибка — использовать изображения без атрибута Alt. 


Alt — это текстовое описание иллюстрации, по которому боты распознают и индексируют картинку. Это повышает релевантность страницы и позиции в поисковой выдаче по фото.


Атрибут Alt используется при расчёте текстового ранжирования в Google, а вот Яндекс вхождения в Alt игнорирует и использует только при ранжировании в поиске по Яндекс.Картинкам. Чтобы оптимизировать изображение, нужно кратко описать изображенное на картинке в кавычках, как на скриншоте ниже: 



Проверить атрибуты Alt на всём сайте можно с помощью краулеров, например, Screaming Frog SEO Spider и Netpeak Spider. Отсутствие Alt не ошибка, а неиспользованная возможность.


Также напомним, что важно следить за размером изображения. Выбирайте картинку с опорой на свой сайт: старайтесь не использовать картинки более 300 кб, за исключением ниш, в которых тяжёлая качественная картинка необходима (например, ювелирные изделия, свадебные сайты, фотообои).


Настройте Яндекс Вебмастер и Google Search Console



Эти инструменты позволяют своевременно определить ошибки на сайте и выявить проблемы с индексацией. В Яндекс.Вебмастере загруженные страницы — это аналог расширенного индекса Google. Посмотреть эту информацию подробнее нельзя. Страницы в поиске — здесь уже можно получить список всех страниц в поиске, посмотреть динамику на отрезке времени. 


В панели вебмастера можно посмотреть ключи, по которым пользователи переходили на сайт, CTR этих ключей, т. е. кликабельность вашего сайта в выдаче. Ключи, по которым есть показы, но нет кликов, можно брать в работу в своё семантическое ядро, потому что поиск уже считает ваш сайт достаточно релевантным, останется немного дожать эти ключи. 


Региональность. Поиск определяет регион для сайта на основании префикса субдомена либо названия города в домене, или на основании контактной информации на сайте. Также региональную привязку даёт Яндекс.Справочник. Не привязывайтесь к региону «Россия», даже если продвигаетесь на всю Россию в целом. «Россия» в данном случае —  это те регионы, которые не имеют собственного кода в Яндексе. Во всех остальных регионах такой сайт будет ранжироваться по остаточному принципу. Поэтому присваивайте коды тех регионов, в которых идут основные ваши продажи. 


В панели Google инструменты симметричны, информацию дают соответственно по Google.  


Что ещё?

Дубли. Бывают явные (по метатегам) и неявные (разная мета, но контент одинаковый). 


Синонимы с www и без www, а также по протоколу http и https. Получается 4 версии вашего сайта, необходимо настроить редиректы, выбрав одну версию. То же самое с алиасами (дополнительными доменами).


Аффилиаты (в том числе лендинги). По ряду запросов основной сайт может выбросить из выдачи из-за наличия аффилиата, поэтому их надо закрывать от поиска через robots.


Также в Яндекс Вебмастер и Google-консоль включены и другие инструменты, которые позволят проанализировать сайт и найти возможность улучшить его показатели.


Проверьте на фильтры

Проверка на фильтры в Яндекс

Переспам или переоптимизация. Как диагностируется: резкое снижение позиций по одному или нескольким запросам, сильная разница в позициях при смене порядка слов в запросе, высокая плотность запроса в тексте или анкор листе. Принято считать переспамом ограничение в ранжировании по одному запросу. Переоптимизация — плохое ранжирование страницы вне зависимости от запроса пользователя. Иногда можно словить переспам и переоптимизацию через достаточный промежуток времени после последнего изменения контента. Это происходит, когда выдачу начинают занимать более чистые сайты. Можно проверить массово с помощью инструментов Arsenkin и Pixeltools, но стоит учитывать, что данные инструменты являются сторонними разработками и не могут полностью соответствовать в своих методах оценки алгоритмам Яндекса.


Фильтр за накрутку ПФ, Минусинск (за ссылки), Баден-Баден (за тексты).  Как диагностируется: выпад позиций всего сайта за топ-50, подтверждение в панели и в письме от поддержки Яндекса.


Аффилиаты (склейка одинаковых сайтов (на одну и ту же выдачу), принадлежащих одному владельцу). Как диагностируется: только один из сайтов остаётся в выдаче по запросу. 


Проверка на фильтры Google

Пингвин. Как диагностируется: наличие замечаний в панели веб-мастера в разделе «Санкции, наложенные вручную». 

Панда. Как диагностируется: резкое падение трафика и позиций по большинству запросов при низком качестве контента.

Есть и другие фильтры, алгоритмы, ознакомиться с которыми можно в официальной документации Яндекс и Google.


Гузель Егорова



 

Axact

Sergey

Люди не знают, чего хотят, до тех пор, пока им это не предложат. Фредерик Бегбедер

Post A Comment:

0 comments: