Seo-аудит сайта за 10 минут

Провести seo-аудит сайта за 10 минут совсем не сложно, для этого достаточно следовать нашей инструкции.
Итак, начнем с оценки технического состояния сайта:

  1. Robots.txt — важный файл вашего сайта, содержащий инструкции для поисковых машин о том, какие директории нужно индексировать, а какие нет. Заходим в Яндекс.Вебмастер — настройка индексирования — анализ robots.txt Нажимаем загрузить robots.txt с сайта. Панель в Яндекс ВебмастерПосле чего система отдает вам все содержимое вашего файла и выводит возможные ошибки.Screenshot_21
  2. Sitemap.xml  Файл содержит в себе описание структуры вашего ресурса и необходим для лучшей индексации сайта поисковыми системами. Файл следует искать по адресу: http://mysite/sitemap.xml.
    Если файл будет найден, то его необходимо загрузить в Яндекс.Вебмастер и Google Webmaster. Эти сервисы проверят файл на наличие ошибок и напишут, если что-то не так.
  3. Наличие ошибок в html-коде вашего сайта негативно влияет на ранжирование в выдаче поисковым систем. Проверить валидность кода вашего сайта поможет http://validator.w3.org/
  4. Проблемы с индексированием сайта могут быть связаны с тем, как ваш сервер отвечает на запросы поисковой машины, ответ сервера можно проверить по адресу:  http://2ip.ru/server-response/ . Правильным ответом сервера является : HTTP/1.1 200 OK. Подробнее о кодах ответа сервера.
  5. Дубли страниц — это дублирование контента сайта по разным url, т.е. когда к одной и той же странице можно обратиться по различным url. Они также оказывают негативное влияние на позиции сайта в выдаче.Лучший способ борьбы с дублями —  просто не допустить их индексирования, что, к сожалению, удается довольно редко.

Примеры дублей страниц:

  • Когда одна и та же страница открывается со слешем и без, например:

mysite.com/page1/
mysite.com/page1

  • Сайт открывается c www и без: http//: www.mysite.ru и http//:mysite.ru
  • Технические дубли, когда система управления генерирует адреса вида: http://mysite.ru/?p=426

Помочь в поиске дублей по сайту вам может программа xenu

пример дублей страниц в xenu

Нами было замечено, что ссылки, размеченные utm метками, пс Яндекс считает дублями страниц.

В случае обнаружения у вас дублей рекомендуем запретить их индексацию в файле robots.txt. Как это сделать — обширная тема, потому что у каждая система управления генерирует свои дубли и для каждой системы управления robots.txt настраивается индивидуально.
Почитать подробнее о настройках robots.txt

Анализ контента

Важным параметром ранжирования вашего сайта является правильная оптимизация и уникальность вашего контента.

Title –большую роль в оптимизации страниц играет мета-тег title, в него должны входить ключевые слова страницы. Слова не должны просто перечисляться- это должна быть хорошо  сформулированная фраза.

Например, для ключевых фраз :

  • Пластиковые окна в Рязани
  • Купить пластиковые окна

Title может быть таким:
Купить пластиковые окна в Рязани по выгодной цене

Заголовки страниц – заголовок h1 является следующим по важности тегом после title. Он также должен содержать вхождения ключевых слов. Заголовки на странице должны быть расположены в иерархическом порядке h1-h2- h3 и т.д.

Уникальность контента вашего сайта

Низкая уникальность контента вашего сайта будет расценена пс как “плагиат” и отсутствие новой, полезной информации, в таких случая фильтр поисковой системы отображает только одну копию документа.

Происходит это так: система размещает наиболее уникальный контент вверху выдачи и наименее уникальный контент — внизу выдачи, в зависимости от соответствия контента поисковому запросу пользователя. Т.е в верхних позициях выдачи будут находиться сайты с наиболее качественным контентом. К ресурсам с не уникальным контентом падает уровень доверия, такие сайты теряют позиции в выдаче.

В определении уникальности вашего контента вам поможет программа Advego plagiatus. Программа имеет довольно простые настройки и вам не составит труда разобраться с ней самостоятельно.
Анализ текста в advego plagiatus

Важно знать, что при проверке в advego plagiatus  нужно ориентироваться на число 90%, т.е схожесть текста не должна превышать 10%.

Внешние факторы

Внешняя ссылочная масса — это количество ссылок на ваш сайт.
На данный момент ссылочное продвижение является наиболее популярным видом продвижения, за исключением Москвы (В Москве в ряде тематик пс Яндекс перестал считать ссылочную массу ключевым фактором продвижения ).
Анализ ссылочной массы — кропотливая работа. Из бесплатных инструментов рекомендую использовать для этой работы панель инструментов Google Webmaster.

На что следует обращать внимание при анализе ссылочной массы?

  • Сквозные ссылки — ссылки, которые идут со всех страниц сайта-донора, например, ссылки в меню. Такие ссылки оказывают плохое влияние и понижают авторитет сайта (в Google), особенно если имеют неразбавленное вхождение.
  • Доноры из одной подсети — такие ссылки также являются подозрительными, так как многие мастера специально создают сайты-спутники (сателлиты).
  • Ресурсы, имеющие сильные связи с вашим сайтом — обычно это дочерние интернет-магазины, ссылающиеся на родительский ресурс со страниц-карточек товара.
  • Спамные ссылки — ссылки, ведущие с заспамленных ресурсов. Заспамленными ресурсами принято считать сайты, целью создания которых была торговля ссылками.
  • Ссылки низкого качества — это ссылки, ведущие с непроиндексированных ресурсов и ресурсов, заблокированных антивирусными программами.
  • Коммерческие ссылки —  поисковые системы стараются отследить ссылки, купленные на ссылочных биржах с целью манипулирования поисковыми алгоритмами.

Поэтому старайтесь отслеживать качество подобных доноров. Одним из явных сигналов считается ситуация, когда ссылка имеет прямое вхождение ключевого слова.
Необходимо также уделять внимание анализу анкоров ссылок.
Анкоры должны быть естественны:

  • Иметь разбавленные вхождения
  • Иметь брендовые вхождения
  • Иметь вхождения в виде изображений.
  • Ссылки с закрытой индексацией
  • Ссылки с вхождением title акцептора.

Обзор трафика

Войдите в панель инструментов сервиса semrush, введите адрес своего сайта,  перед вами откроется график органического и платного трафика, популярные ключевые слова и топ-5 ваших конкурентов.

На что обращать внимание

  • Трафик растет
  • Стоит на месте
  • Были падения, после которых трафик так  и не стал расти

Если в первом случае все нормально, то пункт номер два заставить думать, что делать в направлении роста трафика, а пункт номер заставит задуматься, не попал ли сайт под фильтр поисковых систем.

К этому моменту у вас должно сложится мнение о проблемных местах вашего сайта, и о том в каком направлении необходимо работать. В заключении хочу отметить, что проводить эти манипуляции необходимо регулярно, хотя бы один раз в три месяца. Важно понимать что seo-аудит является важной частью аналитики сайта.

Скачайте чек-лист или закажите у нас аналиту сайта.

А что бы перечень работ по аудиту  был всегда перед глазами, мы сделали для вас небольшой чек-лист.

Подпишись!

Оставьте адрес, и каждую среду мы будем высылать свежую статью

Спроси
автора статьи