ДеловКайфДеловкайф
Главная SEO-продвижение

Как провести технический аудит веб-сайта?

Техническая оптимизация — начальный этап при SEO-продвижении. Она влияет на позиции в SERP и пользовательский опыт на сайте.

Как провести технический аудит веб-сайта?

За время продвижения сайтов в поисковых системах у меня выработался определённый чек лист по проведению технического SEO-аудита, которым я хочу с вами поделиться. Поехали!

Технический анализ сайта включает в себя следующие разделы:

Сервисы вебмастеров

В первую очередь добавьте сайт в сервисы Яндекс Вебмастер и Google Search Console. Тут вы найдёте рекомендации по улучшению сайта, которые необходимо внедрить. Отдельно обратите внимание на вкладку «Безопасность и нарушения».

Изображение 1
Изображение 1-1

В Я. Вебмастере вы сможете добавить карту сайта, изменить скорость обхода и главное зеркало, указать региональность, посмотреть, какие страницы были удалены из поиска и т. д. Обо всех возможностях сервиса рекомендую почитать раздел Яндекс Помощи: https://yandex.ru/support/webmaster/service/info.html.

Коды ответа веб-сервера

Код ответа сервера – это трёхзначная цифра, которую передаёт веб-сервер на запрос пользователя. Каждой цифре соответствует своё значение. Например, 200 – это значит, что запрос успешно обработан. 404 – сервер понял запрос, но не нашёл на него ответа по запрашиваемой ссылке (URL). Полный список ответов вы можете скачать по ссылке.

Итак, наша основная задача проверить, что по существующим ссылкам выдаётся код 200, а по не существующим код 404.

Изображение 2

Также проверьте, что страницы выдаются по одной ссылке, так как, в противном случае, это будет означать, что на сайте существуют дубли контента:

  1. Если сайт работает по протоколу https, то проставьте 301-редирект со страниц с http на https. И наоборот. Делается это через файл «htaccess». Если данный файл отсутствует, то создайте его.

Пример кода для редиректа c http на https (http://site.ru/ → https://site.ru/):

RewriteCond %{HTTP:X-Forwarded-Proto} !https
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R=301,L]
Изображение 3

Альтернативный вариант – это отключить отображение сайта по одному из протоколов, однако лучше сделать 301-переадресацию.

Если вы затрудняетесь сами что-либо сделать, то рекомендую обратиться в техническую поддержку хостинга – они произведут все необходимые действия. Вам останется проверить правильность работы, например, через сервис bertal.ru.

  1. Если ваши ссылки заканчиваются не на .html, то проставьте 301-редирект со страниц со слешем на страницы без слеша. Или наоборот.

Код для переадресации на URL со слешем в конце (site.ru/page → site.ru/page/):

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://www.site.ru/$1/ [L,R=301]

Код для редиректа на ссылки без слеша (site.ru/page/ → site.ru/page):

RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} ^(.+)/$
RewriteRule ^(.+)/$ http://www.site.ru/$1 [R=301,L]
Изображение 4
  1. Проставьте редирект со страниц с WWW на без WWW или наоборот.

Код с версии с WWW на без (www.site.ru → site.ru):

RewriteCond %{HTTP_HOST} ^www.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

Наоборот (site.ru → www.site.ru):

RewriteCond %{HTTP_HOST} ^site\.ru$ [NC]
RewriteRule ^(.*)$ http://www.site.ru/$1 [R=301,L]

Как быть, если ресурс уже проиндексирован поисковыми системами?

В таком случае зайдите в поисковую выдачу (SERP) и ввести конструкцию «site:domain.ru». Поисковик выдаст результаты только по вашему сайту. Затем определите, какие страницы преобладают в выдаче. Если это https + WWW + без слеша, то значит на такой тип необходимо будет проставить 301-переадресацию.

Изображение 5

Как быть с кириллическими доменами?

Работают все те же правила. Главное отличие в том, что в файле .htaccess вводится не кириллица, а пьюникод.

Punycode – это стандартный метод преобразования кириллических символов (и других Unicode символов) в ACE-последовательности. В сети существует множество конвертеров, поэтому проблем с этим возникнуть не должно. Пример названия сайта «http://дело.рф» в пьюникоде – «http://xn--d1acsm.xn--p1ai».

Аптайм

Представьте, что ваш хостинг недоступен. Программа Яндекса, сканирующая сайты, заходит на ваш ресурс и видит, что его больше нет. Из Яндекса начинают «вылетать» страницы, вследствие этого просаживается трафик, количество звонков уменьшается, падают продажи и прибыль. На графике видимости поисковых запросов вы можете наблюдать подобную ситуацию:

Изображение 6

Как избежать подобной ситуации?

Аптайм сервера должен быть максимальным. Аптайм – это время непрерывной работы ресурса. Сайт может быть недоступен вследствие плохой работы сервера или неоплаченного домена.

Во-первых, выбирайте проверенный хостинг. Прикладываю среднее значение Uptime популярных хостингов:

Изображение 7

Если вы хотите перестраховаться, то есть смысл мониторить работоспособность сайта специальным сервисом. Например, host-tracker.com.

Изображение 8

Во-вторых, не забывайте оплачивать домен. Проверить дату, до которой оплачен домен, можно с помощью любого whois сервиса. Например, www.whois-service.ru.

Изображение 9

Как проверить аптайм?

Аптайм можно проверить с помощью Яндекс Метрики. В Метрике перейдите в «Отчёты – Стандартные отчёты – Мониторинг – Результаты проверки».

Изображение 10

Время загрузки страниц

В эпоху быстрого интернета многие пользователи не будут дожидаться долгой загрузки страниц и покинут сайт. Это непосредственно повлияет на количество отказов, позиции сайта в ПС и, впоследствии, количество продаж и прибыль. Что делать в таком случае?

Яндекс Метрика

Первое, зайдите в стандартный отчёт Яндекс Метрики «Мониторинг – Время загрузки страниц» и проверить «Время до отрисовки», а также «Время до загрузки DOM».

Время до отрисовки — время от начала перехода на документ до начала его отрисовки на экране. Пороговое значение, предлагаемое Яндексом, — не более 2 секунд.

Время до загрузки DOM — время от начала перехода на документ до его полной загрузки со всеми компонентами (картинки, CSS-стили, скрипты и так далее). Пороговое значение – не более 6 секунд. Оптимальным будет 3-4 секунды.

Изображение 11

В отчёте обратите внимание на параметр «Квантиль». В зависимости от его значения будут изменяться интересующие нас показатели. Более подробно про «Квантиль» вы можете почитать в справке от Яндекса.

Google Page Speed Insights

Также в определении скорости загрузки нам поможет сервис от Гугл – Page Speed Insights. Воспользоваться им очень просто:

  1. Переходим по ссылке https://developers.google.com/speed/pagespeed/insights/.
  2. Вводим интересующий нас сайт и ждём результата.
  3. Смотрим показатели и внедряем рекомендации, если этот показатель в красной или оранжевой зоне.
Изображение 12

Проверка времени ответа сервера

Не лишним будет проверить время ответа сервера с помощью сервиса https://webopulsar.ru/test/. Вводим интересующий нас сайт и смотрим столбец «Ожидание ответа». При значениях свыше 500-1000 мс необходимо начинать искать причину долгого ответа сервера.

Изображение 13

Pingdom

Если сайт показывает неудовлетворительную скорость загрузки, то рекомендуем проанализировать его через сервис tools.pingdom.com. В нём, как обычно, вы вводите название сайта, смотрите результаты и внедряете рекомендации.

Изображение 14
Изображение 15

Наибольший интерес представляет инфографика, где показано, какие элементы сайта загружаются дольше всего. Оптимизируйте их в первую очередь!

Изображение 16

Если вы не разбираетесь в технических аспектах, таких как статическое кэширование на стороне сервера и клиента, gzip, объединение и сжатие подключаемых файлов и картинок, то сразу рекомендую обратиться к профильным специалистам!

Адаптивность для всех типов устройств

Всё большую популярность набирают мобильные устройства, поэтому будет большой ошибкой закрыть на это глаза и потерять часть аудитории. На примере одного из магазинов можно увидеть, что порядка 46% всех пользователей заходят с мобильных устройств.

Изображение 17

Проверить оптимизацию сайта для мобильных устройств можно через сервис от Google — https://search.google.com/test/mobile-friendly и с помощью инструмента «Проверка мобильных страниц» в Вебмастере.

Изображение 18
Изображение 19

На втором этапе рекомендуется проверить отображение сайта вручную через любой популярный браузер, например, Google Chrome:

  1. Жмём правой кнопкой мыши в окне браузера и далее «Просмотреть код».
Изображение 20
  1. Выбираем пиктограмму «Смартфона/Планшета» и просматриваем страницу, как она будет отображаться на разных типах устройств.
Изображение 21

В случае не корректного отображения сайта на мобильных устройствах, поправьте это! Вы можете это сделать самостоятельно или обратиться ко мне – посоветую проверенного верстальщика.

Отображение в браузерах

Бывает так, что сайт отображается не корректно в определённых типах/версиях браузеров. Локализовать данную проблему можно следующим образом:

  1. Переходим в стандартный отчёт Яндекс Метрики «Технологии — Браузеры».
  2. Сортируем отчёт по уменьшению количества отказов. Если видим, что какой-то из браузеров выделяется, то производится проверка отображения сайта в этом браузере.

В отчёте ниже явно выделяется MSIE и отображение в нём необходимо проверить:

Изображение 23
Изображение 23_2
  1. Проверку без установки браузера на свой компьютер можно провести с помощью специализированных сервисов. Они бывают 2 типов:
  • Одни делают скриншоты из различных браузеров, например, это http://browsershots.org/.
Изображение 24
  • Другие предоставляют возможность просмотра сайта вживую. К такому типу относится https://www.browserling.com/. Вы вводите URL, выбираете интересующий браузер, операционную систему и просматриваете сайт.
Изображение 25

Индексация

К данному разделу относится проверка:

  • Файла robots.txt: удаление дублей и технических/мусорных страниц из индекса поисковых систем.
  • Значений в метатегах robots.
  • Тегов <noindex>.
  • Атрибутов rel=”canonical”.
  • Внедрение «Last-Modified».

Рассмотрим каждый пункт подробней.

Файл robots.txt

Robots.txt – это файл, находящийся в корне сайта. Если он там отсутствует, то его необходимо создать. Он содержит правила сканирования, которых придерживаются поисковые системы. Если сканирование страницы запрещено, то в поисковую выдачу она не попадёт или выпадет из неё!

Добавьте в него запрет на индексацию (делается с помощью директивы Disallow) служебных страниц:

  • поиска;
  • авторизации и регистрации;
  • восстановления забытого пароля;
  • системные папки CMS;
  • страницы сортировки (применяются в интернет-магазинах);
  • корзины;
  • фида;
  • RSS-ленты.
Изображение 26

Для популярных CMS существуют «дефолтные» файлы robots.txt, на основе которых вы можете создать свой «роботс». Пример robots.txt для CMS WordPress расположен ниже:

Изображение 27

Дублирование контента

Бывает так, что на 2 страницах расположен одинаковый контент (они дублируют друг друга) причём ни одна из них не содержит get-параметров. В идеале такого быть не должно, поэтому одну из страниц удалите из индекса. Сделать это можно 2 способами: запретить URL в robots.txt (если она нужна на сайте) или вообще удалить, произведя 301-редирект на основную страницу.

Перед удалением рекомендуется проверить, какой из документов является основным. Это можно сделать, вбив продвигаемые запросы в поиск, и посмотреть, какой документ покажет выдача.

Для перестраховки проверьте в стандартном отчёте метрики «Содержание – Страницы входа», на какую страницу приходят пользователи из поиска. В отчёте установите условие «Поведение – Страницы входа», выбрав интересующие документы, а также «Источники – последний источник – Поисковая система».

Изображение 28
Изображение 23-2

Проделав вышеуказанные действия, вы точно будете знать, какая страница является дублем.

Динамические get-параметры и UTM-метки

Добавляем запрет на индексацию ссылок с UTM-метками и динамическими параметрами или прописываем rel=»canonical». Альтернативным способом является использование директивы Clean-Param, которая работает только для Яндекса. В Google get-параметры необходимо добавлять через Search Console.

Изображение 29
Изображение 30

Проверка поисковой выдачи

Просмотрите выдачу Яндекс и Google на наличие служебных и «мусорных» страниц. Под «мусорными» подразумеваются документы, не несущие какой-то пользы для людей. Например, пустые страницы с ошибкой. Сделать это можно с помощью уже знакомой конструкции «site:domain.ru» и в инструментах для вебмастеров.

Изображение 31

При нахождении подобных страниц удалите их на сайте (они начнут отдавать 404 ответ сервера) или закрыть в robots.txt. Имейте в виду, что если вы оставите «мусор» в первозданном виде (даже запретив через robots.txt), то это негативно скажется на продвижении, так как:

  1. Если на такие страницы смогут попасть люди, то на сайте будет расти отрицательный пользовательский опыт, что повлияет на поведенческие факторы.
  2. Вес каждого документа будет размываться между значимыми и мусорными страницами. То есть значимость действительно важных страниц будет снижаться.

При запрете индексации документы со временем пропадут из поиска. Если вы не хотите ждать, то можно воспользоваться сервисом для вебмастеров по удалению URL из выдачи — https://webmaster.yandex.ru/tools/del-url/.

Изображение 32

Метатег Robots

Проверяем с помощью программ парсеров страницы, где прописан метатег Robots. Бывает так, что нужные документы закрыты от индексации.

<noindex>

Проверяем документы на наличие тега noindex. Данный тег работает только в Яндексе, поэтому рекомендуем не злоупотреблять им.

Rel=”canonial”

Смотрим наличие атрибута rel canonical у тега link. Обычно «каноникал» используют на документе, где контент схож с какой-то другой страницей на сайте и необходимо сделать так, чтобы он не попал в индекс. Отмечу, что на неканоническом документе краулер переходит по ссылкам, поэтому «canonical» удобно использовать на страницах пагинации.

Изображение 33

Last-Modified

В SEO существует понятие «краулинговый бюджет». Краулинговый бюджет – это количество страниц, который сканер поисковых систем (краулер) обходит за определённое время. Чтобы оптимизировать сканирование сайта поисковиками существует заголовок Last Modified.

Как он работает?

При изменении страницы в заголовок Last-Modified прописывается дата редактирования. При посещении краулер, прежде чем сканировать документ, передаёт серверу заголовок If-Modified-Since:

  • Если контент не изменялся с даты, указанной в If-Modified-Since, то сервер отдаёт код «304 Not Modified» и страница повторно загружаться не будет.
  • Если изменения на странице были, то сервер отдаст код «200» и она будет просканирована вновь.

Таким образом, у вас будет возможность оптимально расходовать краулинговый бюджет сайта.

Ссылки

Придерживайтесь следующих рекомендаций:

  1. Все внешние ссылки рекомендуется удалить или закрыть с помощью атрибута rel=”nofollow”.
  2. Произведите проверку на наличие ссылок с 404 кодом ответа сервера.
  3. Создавайте ЧПУ – человекопонятные урлы (ссылки). Пример: не /category251/, а /britvy/.
  4. Длина URL не должна превышать 115 символов.
  5. Внедрите html-карту. Это документ, содержащий ссылки на все основные страницы, в структурированном формате.
Изображение 34
  1. Создайте xml карту сайта (sitemap.xml) и укажите путь до неё в инструментах для вебмастеров.
Изображение 35
  1. Также проверьте, что все ссылки на сайте ведут на «конечные» страницы без 301-редиректа.

Пример:

Изображение 36

Избавляйтесь от цепочек редиректов. Проверить 301-редиректы вы можете с помощью программ Screaming Frog SEO Spider или NetPeak Spider.

Структура и навигация

Как я писал в статье «С чего начать продвижение сайта» не стоит задумываться о заумной перелинковке со сложными схемами перетекания весов.

Изображение 37

Главная задача – это обеспечить комфортную навигацию для пользователей, создав, как минимум:

  1. Сквозное меню со ссылками на категории.
Изображение 38
  1. Документ с содержанием, где будут перечислены ссылки на основные страницы сайта (по надобности).
Изображение 39

Контекстную перелинковку (ссылки в контентной части).

Изображение 40

В случае с интернет-магазином реализуйте перелинковку между товарами, реализовав блок «Популярные», «Похожие товары» на карточках.

В создании правильной навигационной структуры поможет сбор семантического ядра с последующей разбивкой запросов на кластеры!

HTML-код

Проверьте код на:

  • Большие вкрапления JavaScript-кода, комментариев и CSS-стилей. В случае нахождения оных вынести их в отдельные файлы, а комментарии удалить.
  • Наличие только одного подзаголовка H1, метатега title, description и keywords.
  • Наличие атрибута alt у картинок.
  • Отсутствие тега strong в хедере, сайдбаре и футере. При наличии замените его на тег b или «font-weight:bold» с помощью стилей.
  • Отсутствие подзаголовков H2 — H6 и тегов p в сайдбаре, хедере, футере. Их необходимо применять только в контентной части, однако многие верстальщики не придерживаются данного правила.
  • Валидность вёрстки с помощью специализированных сервисов, например, http://validator.w3.org/.
  • Корректность значений в теге link с атрибутом rel=”canonical”.
Изображение 41

Title рекомендуется расположить в блоке head, как можно, ближе к началу документа.

SEO-параметры

Проверьте метатеги Title, Description, Keywords на:

  • Дублирование в пределах сайта. В этом вам помогут программы, например, Screaming Frog SEO Spider.
  • Длину. Title – не более 150 символов. Description – не более 250 символов.
  • Заполненность. Пустые теги H1 и метатеги title, description (кроме Keywords) необходимо заполнить.
Изображение 42

Контент

Проверьте выборочно контент сайта на уникальность. В этом вам помогут программы Advego Plagiatus или eTXT Антиплагиат. Также это можно сделать с помощью цитатного поиска –скопируйте част текста и вставьте его в поисковик. Если первым будет показан чужой сайт, значит вы, скорей всего, не являетесь первоисточником.

Изображение 43

Рекомендую для перестраховки добавлять контент в сервис «Оригинальные тексты» перед добавлением на сайт.

Изображение 44

При нахождении страниц с малым количеством контента (до 500 символов) придайте им ценности (добавьте релевантную информацию) или удалите. Определить их можно с помощью программы «Скриминг Фрог».

Изображение 45

В случае с интернет-магазином это может быть категория с одним товаром, а сайтом услуг – страница с надписью: «Находится в разработке».

Вручную проверьте работоспособность основных форм на сайте: «Поиск», «Заявка на установку» и т.п. Косвенно отсутствие заявок при настроенных целях может служить фактом неработоспособности формы.

Внедрите favicon. Favicon – это значок веб-сайта, отображающийся во вкладке браузера вместе с заголовком, а также в сниппете в поисковой выдаче. Favicon непосредственно может повлиять на CTR документа, поэтому не стоит им пренебрегать!

Пример

По ссылке вы можете скачать пример аудита для ознакомления.

Резюме

Учитывая не самую простую тему, я постарался осветить все составляющие технической оптимизации сайта для SEO. При упущении чего-либо просьба сообщить об этом – добавлю в статью! Спасибо за чтение.

Понравилось? Расскажите друзьям:

Также будет полезно

Комментарии