Как провести SEO аудит самому и бесплатно

seo аудит

Самостоятельный аудит сайта. Как сделать быстро и при этом не только узнать об ошибках, но и составить рекомендации для их исправления.

Аудит сайта – стандартная операция при поисковом продвижении сайта. Большинство сайтов создается без учета современных требований поиска к ним. А впоследствии обрастает новыми ошибками, которые не то, что понижают сайт в рейтинг – не дают ему в нем подняться.

Таким образом, аудит сайта призван избавить сайт от основных ошибок, связанных с его пониманием поисковыми системами. И одним этим добавить на сайт целевого траффика из поиска.

Другим побочным эффектом является улучшение сайта в том числе для его посетителей, так как требования поиска берутся в том числе из поисковой парадигмы “делайте свой сайт лучше”. Делая сайт лучше, вы даете своим посетителям больше удобства в его использовании. Это начинает влиять на результаты конверсии посещений в звонки и заказы – а ведь именно их вы ждете от своего сайта.


Чтобы проделать небольшой аудит своего сайта и внести основные исправления, не нужен большой багаж знаний и длительный опыт работы с поисковым продвижением. Достаточно освоить несколько простых инструментов и уметь корректно интерпретировать результаты их работы.

Инструменты

1) RDS-bar.

Простой плагин для вашего браузера. Установить его можно с сайта http:// www.recipdonor.com/bar – выберите ваш браузер и дальше действуйте по инструкции для установки плагина.

После установки пройдите в раздел Настройки

rds bar

И выставьте галочки так, как они стоят у меня. Конечно, можно выставлять и иным образом, просто такая расстановка избавит вас от постоянной проверки параметров, что негативно сказывается на работе и вашего компьютера, и может послужить причиной бана вашего IP в поисковых системах за постоянное обращение к ним.

rds bar

Теперь в вашем браузере появилась кнопка RDS, на которой будет показываться тИЦ просматриваемого сайта, а по нажатию на нее появляться его основные параметры.

rds bar

Разумеется существуют и другие бесплатные программы и плагины для измерения параметров сайта, но RDS прост, бесплатен и имеет достаточную полноту для нашего аудита.

2) NetPeak Spider (аналог для mac – Screaming Frog SEO Spider)

Еще одна бесплатная программа. Это бесплатный сканер содержимого вашего сайта, позволяющий указать на основные ошибки на нем. Минусом является ограниченность его инструментов, но для нашей работы их будет вполне достаточно. Сканер поддерживается и распространяется компанией NetPeak, за что им большое спасибо.

Скачать программу можно здесь: http://netpeak.ru/soft/netpeak-spider/

Установка проходит, как для любого десктопного приложения под Windows. После запуска вас встретит вот такой интерфейс.

netpeak

Теперь, когда инструменты есть, можно приступить к работе по аудиту сайта.

Аудит

1) Основные параметры сайта.

Загружаем свой сайт в браузере и нажимаем кнопку плагина RDS.

rds bar в действии

Обратите внимание, что часть информации RDS не показал: там знак вопроса или captcha. В этом случае нужно кликнуть по синей ссылке и перейти на сайт, откуда бралась информация плагином. Так вы получите нужную информацию, как если бы искали ее руками, а не с помощью программы. Например, при клике по “Индекс Я: captcha” вы увидите число страниц в Яндексе у вашего сайта, но перед этим надо будет ввести проверочный код (так как яндекс выбросил капчу на проверку вашей человечности).

яндекс

Какие выводы можно сделать на основании этой информации?

таблица чек-лист seo

Остальные параметры носят справочный характер. Т.е. приятно знать, что твой сайт есть в Я.Каталоге, какой у него тИЦ и т.д., но думаю, что это вы знаете и сами.

2) Анализ ссылочного.

Используя тот же RDS, кликаем по ссылке в строке Solomono – по зеленой цифре. Клик переведет нас в сервис, где вы сможете изучить ссылочное вашего сайта. Если вы сами не занимались простановкой ссылок на свой ресурс, то откроете для себя много нового.

Убираем после перехода в строке НАЙТИ буковку d, чтобы получилась конструкция запроса “link site.ru”. Это покажет нам все ссылки на ваш сайт, которые смог найти сервис.

linkpad

Обратите внимание на график по динамике ссылок. Особенно на тот, который показывает число отдельных доменов. Это прекрасная иллюстрация того, как закупались (закупались ли вообще, с какой скоростью, когда снимались) ссылки на ваш ресурс. Конечно, надо давать при анализе несколько недель на то, когда сервис искал эти ссылки. Т.е. точка на графике за август характеризует закуп/простановку/снятие ссылок примерно в июне-июле.

Какую информацию мы можем получить из графика? Во-первых, обманывает ли вас ваш оптимизатор: если ссылок вообще нет и нет других работ, то куда он тратит ваши деньги? Во-вторых, вы видите динамику прироста и можете понять, когда прирост остановился и задаться вопросом, почему это произошло. Причин остановки прироста может быть не так много: это фиксация бюджета по арендным ссылкам, а если работа велась статичными ссылками, то оптимизатор прекратил их покупать.

Арендная ссылка – это ссылка, которая ставится с помощью специального кода на сайте. Оплата за такую ссылку ведется на арендной основе. Т.е. прекращение оплаты вызывает снятие ссылок. Статичная ссылка ставится руками условно навсегда. Снятие ее происходит в основном с прекращением жизни сайта или истечением гарантийного срока размещения – вебмастер решает, что может заработать на этом месте новые деньги и снимает ссылку руками. Оплата за статическую ссылку разовая, в среднем равна оплате аренды за год-полтора.

Дополнительную информацию о качестве ссылочной массы вы можете получить выборочной проверкой найденных ссылок – просто кликом по ссылке в списке. Вам нравится увиденный сайт-донор? Вас удовлетворяет качество размещения? Претензии здесь носят избирательный характер. От себя могу сказать, что есть две основные ссылочные политики: или дешево, много и невысокого качества. Или дорого и мало, но качественно. Если дорого, мало и некачественно – вас обманывают.

Что делать? Изменить работу с ссылочной массой. Как минимум, войти в курс дела, как и по каким критериям она покупается. Если обоснование покажется вам недостаточным – это повод к пересмотру ссылочной политики. Если вы столкнулись с тем, что и ссылок нет, и работ с сайтом никаких не проводится, то это повод для прекращения финансирования поискового продвижения и поиска нового подрядчика.

3) Работа со сниппетом.

Сниппетом называется карточка сайта в выдаче поиска. Кликабельность сниппета на сегодня является одним из важнейших факторов ранжирования. Чем более понятна и привлекательна информация для пользователя, тем он чаще совершает переходы из поиска по такому сниппету, тем выше поиск будет поднимать этот сайт по сравнению с конкурентами.

Вот плохой сниппет.

плохой сниппет

А вот хороший.

хороший сниппет

Разница очевидна. Увидеть свой сниппет можно, набрав в поиске основную фразу для вашего бизнеса, по которой ваш сайт присутствует в поиске.

Как изменить сниппет? Частично можно задать информацию о вашем бизнесе и сайте через панель вебмастера в Яндексе (webmaster.yandex.ru), справочник Яндекса о предприятиях (sprav.yandex.ru), через отметку на карте Google.

Еще одним способом управлять сниппетом является работа с микроразметкой (Schema.org), но для этого придется привлекать программиста.

Не менее важным в доведении вида сниппета до идеального является работа с тэгом TITLE. Посмотрите на такой сниппет.

сниппет

Что можно понять из таких сниппетов? Чьи Вакансии? Чье Производство? На стадии поиска невозможно принять решение о переходе на такой сайт. Т.е. кликать по таким сниппетам будут только после того, как будет исчерпан выбор более понятных результатов поиска!

Что делать? Изменить заголовки страниц (TITLE) – в большинстве CMS (система управления сайтом) это возможно через админку. Т.е. входите под паролем, переводите страницу в режим редактирования и исправляете текст в нужном поле.

Куцые TITLE – это базовая ошибка при наполнении сайта, которую совершают 99% разработчиков и владельцев сайта. Сделайте больше чем ваши конкуренты, создав привлекательные заголовки, и одно это увеличит ваши результаты в поиске!

Как может выглядеть привлекательный заголовок?

Купить женскую стильную сумку от 3000 рублей в магазине “1000 сумок” Заказать услугу депиляции в салоне “Красота”: от 1000 рублей сеанс Акция 20% на запись к врачу-дерматологу! Клиника “Последний шанс”

Будьте изобретательны. А если у вас большой каталог, то можно составить формулы составления для ваших товаров, которые внедрит программист.

Купить (товар) от (цена) в магазине “Все для дома”, Москва, телефон 8 800…

Формулы могут включать различные слова-сателлиты (бесплатно, дешево, отзывы), но главное, чтобы заголовок стал не таким сухим и из одного слова. По нему должны хотеть кликнуть!

4) Наличие или избыток тэга H1

Запускаем программу NetPeak Spider и вводим адрес нашего сайта. Если сканирование не пошло, то хостинг, где расположен ваш сайт, или банит ботов сканера, или просто падает от наплыва обращений. И первое, и второе скорее негативный сигнал, говорящий, что возможно и поисковые роботы не всегда могут пробиться на ваш сайт.

Если сканирование пошло, то через какое-то время вы получите список страниц на сайте и их основные параметры. Обратим внимание на колонку H1.

таблица параметров seo

Как видим, для части страниц H1 вообще отсутствует, а кое-где установлен два раза. Два – это не предел, я видел документ, где Н1 был использован 32 раза!

Отсутствие Н1 является, скорее, недоработкой, чем ошибкой. Есть традиционное мнение, что для улучшения ранжирования надо подсказать поиску, где на странице самая главная фраза, заголовок – его и ставят в Н1. Если вы этого не делаете, то поиск делает выбор самостоятельно, иногда попадая в цель, а иногда делая это неверно. Поэтому лучше сделать такой выбор самому.

А вот наличие на одной странице двух и более Н1 уже является ошибкой, вызывающей недоумение у поиска – что считать более важным. Еще хуже, когда тэги Н1-Н6 используются в разметке меню и в разметке страниц одновременно. Это может вызывать у поиска сложности в понимании документа.

Что делать? Отредактировать документы и верстку сайта так, чтобы Н1 был не более одного раза на странице. Одновременно, можно провести уже в ручном режиме исследование насчет озаглавливания блоков на странице. Если они будут идти в Н2, это упростит понимание поисковым роботам, что считать подчиненными заголовками к основному в Н1.

5) Проверка информации в TITLE и META (DESCRIPTION, KEYWORDS).

Мета-тэги давно утратили свою изначальное предназначение – указание на ключевые слова для ранжирования и описание для поисковой системы. Сейчас это просто информационные блоки, использование которых является добровольным для поиска. Однако, это не должно расхолаживать владельца сайта. Текущим требованием к мета-тэгам и TITLE является их несовпадение – есть исследования, где показано, что лучше ранжируются сайты, где содержимое метатэгов отличается на разных страницах.

таблица чек лист сео

Благодаря NetPeak Spider мы можем изучить эту информацию пакетно. А если нажать на кнопку Найти дубликаты, то и сразу увидеть страницы, где информация в тэгах совпадает.

Если вы нашли дубликаты, то выпишите такие страницы и исправьте свою недоработку. Общепринято, что DESCRIPTION является как бы продолжением TITLE, некоей дополнительной информацией к заголовку. Если вы поставите туда интересную привлекательную фразу небольшой длины (до 200 символов), то она может появиться в сниппете, когда поиск не сможет найти релевантного текста на самой странице.

Кроме того, отмечено, что сайты, где нет совпадающих описаний в тэгах, ранжируются в поиске лучше.

Второй момент, который можно отследить при таком анализе – это коммерческая привлекательность описаний. Выше уже говорилось о привлекательности заголовка страницы – его роли в кликабельности сниппета. Это же можно отнести к DESCRIPTION.

Что касается KEYWORDS, то просто желательно, чтобы они не совпадали на разных страницах.

6) Коммерческие факторы.

Важным моментом является удобство сайта для пользователя. Понятно, что поиск не имеет возможности видеть то, как ведет пользователь на конкретно вашем сайте, но у него достаточно исследований, чтобы вывести условия для информации на странице, при которых пользователь ведет себя “идеально”. Т.е. поиск просто сравнит ваш вид представления информации с “идеальным” и примет решение о ранжировании такого документа на основе результатов сравнения.

Поэтому о простых и понятных каждому вещах стоит позаботиться заранее. Не все являются обязательными и относиться к нижеприведенным вопросам стоит критично, но если ваши конкуренты активно используют что-то из этого, возможно, они получают за это “премию” от поиска.

чек лист seo

Можно продолжить список таких вопросов, но главный вопрос можно сформулировать следующим образом: если ваш сайт не дает внятной структурированной информации, если он не способен удерживать посетителя, то с ним что-то не так.

Одной из простых метрик на что-то не так по коммерческим факторам является показатель: число просмотренных страниц / число посетителей (можно взять из статистики посещений сайта). Для корпоративных сайтов нормальным показателем будет от 3 и выше. Для интернет-магазинов – от 5, но лучше от 10 страниц на человека в среднем.

Еще одной метрикой качества может быть показатель отказов – число посетителей, покинувших сайт после просмотра одной страницы. Понятно, что для небольших сайтов или сайтов-одностраничников, или сайтов в нишах вроде пиццы или такси этот показатель ничего не говорит. Но для большинства сайтов чем отказов меньше, тем лучше.

Еще одна метрика: число просмотренных страниц / число страниц на сайте. Чем глубже сайт высматривается пользователями в среднем, тем лучше. Опять же понятно, что на сайтах из пяти страниц и на сайтах из ста тысяч страниц этот показатель будет давать качественно разную картину -нереально просмотреть полностью большой сайт. Но если сравнивать примерно в одной нише, со своими конкурентами, то можно получить более-менее объективную оценку качества вашего сайта в сравнении.

7) Битые страницы и дубли.

Под битыми страницами понимаются страницы без материала и под 404 ошибкой. Классические случаи появления битых страниц: поиск по сайту, который завершился пустыми результатами, некорректный аргумент в адресной строке, ссылка на удаленную страницу внутри сайта или из внешних источников.

Считается корректным выявить и внести все битые страницы под исключение в robots.txt. Их невнесение не всегда приводит к понижению результатов, существуют сайты, которые содержат тысячи битых страниц, но при этом находятся в топах поисковых систем. Однако, лучше сделать эту работу, чем не делать.

Если битые страницы отдаются, как 404 ошибка, то их наличие вам покажет NetPeak Spider в разделе Ошибки. Сначала нужно выявить все такие страницы и внести их в robots.txt (оптимально, если это сделает ваш программист). Затем необходимо найти страницы вашего сайта, где располагаются ссылки на битые страницы и убрать эти ссылки. Для этого нажмите в NetPeak Spider на строке с битой странице правой клавишей мышки и выберите “Ссылки на эту страницу”. Так вы получите список страниц к правке.

Если страницы просто не содержат контента, то выявить их без серьезного инструментария можно только пересмотром. Обычно такие страницы содержат одинаковый заголовок, не имеют текста в H1. Так что большинство пустых страниц можно выявить просто внимательным просмотром результатов в NetPeak Spider. Находим их и вносим на исключение в robots.txt.

Дублем называется страница содержащая тот же контент, что и оригинальная страница. Дубли в основном образуются из-за некорректной обработки адресной строки и слабой проработки структуры сайта (пример хорошей структуры показан на странице с аттестацией рабочих мест 2013). Например, часто владелец принимает решение выставить один и тот же товар в двух категориях. Но еще чаще встречаются дубли листингов (списков) статей и товаров. Над листингами в разных движках возможны операции сортировки, списки выдают примерно похожий список материалов для разных операций (например, разные результаты поиска с точностью до слова) – это все приводит к появлению в индексе дублей страниц.

Поиск не стоит на месте, и сейчас также считается, что дубли TITLE и метатэгов тоже следует исключать, хотя контент на страницах может разниться.

Дубли частично можно выявить с помощью NetPeak Spider: сканируем, нажимаем кнопку “Найти дубликаты”. Так вы выявите наиболее явные дубликаты, которые совпадают с точностью до тэгов. Определяем, какая страница главная, остальные вносим под исключение в robots.txt.

Однако, существует часть дублей, где TITLE может отличаться. Это, например, поиск по разным запросам, страницы сортировки. Исключить такие страницы можно техническими методами даже не вникая – есть они в индексе поисковых систем или нет. Просто даете указание программисту убрать под исключение в robots.txt не один URL, а сразу группу, характеризующую сортировки, поиск и т.п.

В случае, если дубли играют важную роль в работе сайта: например, один и тот же товар в двух категориях, попросите программиста указать в дублях rel=canonical на основной товар или статью. Информации по простановке этого метатэга более чем достаточно в сети.

Отдельный разговор о страницах пагинации в листингах. Они традиционно не несут никакой информационной ценности – никакого уникального контента не содержат. Более того, все страницы листингов имеют одинаковый TITLE и метатэги. Есть мнение, что страницы листингов, начиная со второй страницы, следует исключать в robots.txt. Также есть мнение, что первые страницы листингов следует снабжать инфоблоком с
уникальной информацией лучше до, но можно и после листинга. Это может быть какая-то вводная информация по разделу. Или статистика. Или акционная информация.

Общее правило: если страница не несет никакой ценности, то она становится возможной причиной для понижения в ранжировании.

Количество таких страниц надо снижать: или добавлением этой ценности (контент, функционал), или исключать в robots.txt.

8) Синонимы домена в индексе.

Одной из неочевидных ошибок является использование синонимов домена – ситуация, когда сайт можно увидеть по двум и более доменам. Наиболее популярный синоним – это разное отображение домена с префиксом WWW.

Проверьте свой сайт – можно ли его загрузить с WWW и без WWW. Если да, то лучше выбрать один вариант, а с другого сделать переадресацию с помощью программиста.

Немалое число владельцев бизнеса покупает несколько доменов для своего сайта, стараясь занять все возможные ошибки написания. Это и РФ-домены, и домены в разных зонах, и домены с различным написанием имени.

Обычно все такие домены ставят на одну папку и в браузере можно увидеть один и тот же сайт с разным именем домена. Это неверно. Разные поисковые системы могут выбрать разные домены для индексации, что будет мешать даже естественному продвижению сайта (какой домен, например, ставить в справочниках и каталогах?).

Лучше всего сразу попросить своего системного администратора (того, кто отвечает за хостинг) выделить все домены кроме одного и сделать с них переадресацию по 301 на этот выбранный домен. Так в поиске останется только один домен, с которым вы и будете работать.

Если вы продвигаетесь силами другой компании, не скрывайте от них наличие синонимов с начала сотрудничества.

9) Аффилиат.

Аффилиат – настроенная связь в базе Яндекса двух и более сайтов, мешающая показывать более одного сайта по запросу, которому они все релевантны. Говоря проще, если вы продаете шины и сделали два сайта, то только один будет показываться в поиске по фразе “шины”.

Аффилиат может накладываться и на сайты дочерних компаний, если поиск решит, что они связаны с основной. В моей практике был случай разделения двух автошкол. В итоге первая потеряла часть позиций в поиске, а вторая их не добрала.

Если у вас есть второй сайт, например, по оптовому направлению, то стоит их проверить на аффилиат. Самой простой и достоверной проверкой является снятие позиций до топ-100 по обоим сайтам по всему ядру запросов. Если обнаружится, что по большинству позиций в поиске присутствует только один сайт, то скорей всего, можно говорить о наложении аффилиата на ваши сайты.

Что делать? Продвигать в поиске сайты только по тем позициям, по которым они присутствуют в поиске.

Резюме

В данном материале собраны не все ошибки и недоработки, которые могут быть допущены на вашем сайте. Более того, часть упомянутых избыточны и напрямую к ошибкам не относятся – тысячи сайтов отлично живут без их исправления. Однако, знание об их существовании, попытка взглянуть на сайт с точки зрения как поискового робота, так и неопытного пользователя, приносит немало пользы в работе с сайтом.

Благодаря исправлению основного объема ошибок, доработок по юзабилити, отработки факторов влияющих на поведение – в нашей работе удавалось добиться значительного повышения и позиций в поиске и собственно поисковой посещаемости. Кроме того, все эти действия относятся к зоне так называемого “белого” seo, где вы не прибегаете к спамным методам (покупке ссылок в частности).