Наличие грубых технических ошибок может фатально сказаться на продвижении вашего проекта, и вся SEO работа уйдет коту под хвост.
Страницы с большим весом долго грузятся, а скорость загрузки — важный фактор ранжирования. Поэтому нужно всеми способами сократить скорость загрузки.
Один из таких способов — уменьшение размера кода (в идеале страница должна весить не более 200 Кб). Если страниц на сайте не много, то можно просмотреть каждую через F12 — вкладка Network.
В примере на скрине видно, что страница весит более 2 MB — это очень много. Нужно сократить размер, например, сжатием файлов и скриптов, с помощью кэширования, выносом больших JS и CSS кусков из кода, удалением мусора и т.д. Это программная задача, я отдаю ее всегда на аутсорс.
А вот пример, когда все в порядке. Размер страницы не превышает допустимую норму.
В случае, когда на сайте много страниц, можно их скопом проверить через программу Xenu. Размер здесь указан в байтах.
Как я уже написал выше, скорость загрузки сайта — важный фактор ранжирования. Нужно всеми способами добиваться ее снижения. Для типовых страниц можно вручную проверить скорость через F12 — вкладка Network.
На скрине показан пример, когда скорость допустимая — 3,84 секунды.
Если скорость превышает 4-5 секунд, то нужно ее уменьшать похожими способами, как в предыдущем пункте, то есть анализом кода сайта. Вообще, размер кода страницы и скорость загрузки коррелируют. Исправляя одно, воздействуем на другое.
Если страниц на сайте много, то можно проверить с помощью программы Screaming frog.
Также скорость загрузки можно проверить с помощью сервиса saitreport.ru. С помощью него можно провести хороший технический аудит и анализ сайта онлайн (там много разных данных и функций), но бесплатно только для 25 страниц, дальше уже платные тарифы.
Flash уже давно устарел, на сайтах его в 99% случаях не используют. Но такое может все равно встречаться. Проблема в том, что Flash контент не индексируется поисковиками. Если у вас, например, текст или еще какое-то важное содержимое выполнено во flash, то толку для продвижения сайта от него не будет.
Вот пример, как в коде сайта можно найти Flash. Если на вашем сайте такого нет, то все в порядке.
Фреймы также затрудняют корректное индексирование сайта поисковиками. Если на вашем сайте содержится важный контент в тегах <frameset>, то лучше от них избавляться. Вот пример использования на сайте фреймов.
Слишком большие комментарии в коде являются тем мусором, который может влиять и на скорость загрузки страниц и на их размер. Вот от подобных комментариев нужно избавляться, чтобы код был чистый. Комментарии используются в скобках <!— —>
JS скрипты в коде также влияют на скорость загрузки и размер страницы. Все скрипты должны быть убраны в отдельные файлы и вынесены в конец страницы. Вот пример большого скрипта, который нужно убрать из кода.
Большое количество inline CSS стилей в коде влияет на скорость загрузки и размер страницы. Такие стили нужно убирать в отдельные файлы и выносить в конец кода. Вот пример стилей в коде страницы.
Здесь нужно просмотреть выдачу яндекса (через оператор host:url домена) и google (через оператор site:url домена). Можно найти много интересного — технические страницы, мусорные страницы, которые нужно удалить, можно найти тестовый поддомен и так далее.
В общем, в любом случае нужно просмотреть всю выдачу и в случае обнаружения подозрительных вещей принять меры (удалить ненужные страницы с сайта, закрыть их в robots.txt или в noindex).
Нужно проверить кодировку всех страниц сайта на их совпадение. Если на сайте разная кодировка, то страницы могут не правильно отображаться в браузерах и вместо привычного текста могут быть, например, вот такие кракозябры.
Проверить кодировку можно с помощью той же программы Xenu. Вот пример, когда основная кодировка на сайте utf-8, но встречаются страницы с кодировкой iso-8859-1. Нужно такое исправлять.
На сайте должно быть одно основное зеркало — с www или без www. Если ваш сайт открывается без www, например, как у меня mydaoseo.ru, то нужно проверить зеркало с www.mydaoseo.ru.
Если сайт открывается с www, значит есть дубль сайта и нужно настраивать 301 редирект на версию без www. Если сайт с www перенаправляет на версию без www, то это хорошо, но нужно проверить еще код ответа сервера, чтобы был настроен именно 301 редирект.
Проверить код ответа можно с помощью онлайн сервиса mainspy.ru.
По файлу robots у меня есть отдельная статья, это на самом деле большая тема. Там я все расписал, какой должен быть роботс и как его правильно настроить, почитайте обязательно.
Нужно проверить сайт на наличие дублей /index.php или /index.html. Просто к домену подписываете эти окончания вида https://mydaoseo.ru/index.php или https://mydaoseo.ru/index.html и смотрите, что происходит.
Если все хорошо, то должна открыться страница 404 ошибки или сработать 301 редирект на главную. Если по этим адресам (или по одному адресу) открывается ваш сайт, значит есть дубли. Нужно настраивать так, чтобы была 404 ошибка или 301 редирект на главную.
Дополнительно нужно проверить страницы с помощью того же сервиса mainspy.ru, какой ответ они отдают. Вот в примере все правильно — один ответ — 404, второй — 301.
Здесь нужно просмотреть выдачу яндекса и google с помощью того способа, который я написал выше с обнаружением технических и всяких мусорных страниц. Вот пример, когда найдены страницы с сессионными переменными. Это дубли, нужно от них избавляться.
Canonical может быть у вас на сайте, а может и не быть. Но если он есть, то нужно посмотреть, правильно ли он работает, идет ли перенаправление на нужные страницы. Подробнее про canonical я писал в своей статье, почитайте.
Проверить массово каноникалы можно с помощью программы Screaming Frog.
Кстати, это очень классная прога для проведения технического сео аудита сайта. К сожалению, у нее есть ограничения, которые снимаются платной версией. Но бесплатной версии вполне хватает для рядовых типичных работ.
Битые ссылки негативно влияют на продвижение сайта, от них нужно избавляться. Чтобы найти такие ссылки, нам поможет все та же программа Xenu. После окончания краулинга, прога выдает отчет, в котором вы можете найти вот такое (error code должен быть 404).
Все битые ссылки на сайте нужно найти и удалить их.
На сайте обязательно должна быть страница 404 ошибки. Проверить это можно, если написать какую-нибудь абрукадабру после домена, должно быть что-то навроде такого.
Дополнительно нужно проверить код ответа сервера, действительно ли отдается 404 ошибка.
Если сервер отдает другой какой-то ответ, то нужно это исправлять, чтобы был именно 404.
Про карту сайта сайтмап я писал уже в отдельной статье, почитайте обязательно. На сайте должен быть sitemap.xml.
Видимый контент на сайте и содержимое для робота должно быть одинаковым. Иначе, робот может понять, что вы его обманываете и пессимизирует сайт в выдаче. Это еще по-другому называется «клоакинг».
Проверить его можно с помощью просмотра и сравнения текстовой копии в яндексе. Нужно проверить так все типовые страницы на сайте. Берете одну типовую страницу и вводите ее в строку поиска. Переходите на сохраненную копию.
Затем нажимаете на просмотр текстовой копии.
В прошлом году яндекс отключил просмотр текстовой версии, но она доступна через функцию &cht=1, которую нужно ввести в самом конце адреса.
Вот открывается та версия страницы, которую видит робот. Эту версию нужно сравнить с самой страницей, нет ли каких расхождений в контенте (тексте, картинках, меню, ссылках и т.д.). Должно быть все одинаково. Если есть различия, то нужно их исправлять.
Есть другой способ проверить текстовую версию страницы — с помощью расширения для браузера Mozilla — Web Developer. Устанавливаете расширение и выбираете функцию «Отключить все стили».
Здесь нужно проверить uptime хостинга, чтобы не было сильных и частых перебоев в его работе. Проверить можно, например, с помощью сервиса host-tracker.com.
В статье я рассказал далеко не все ошибки, которые еще можно проверить на сайте (например, посмотреть работу хлебных крошек, вирусы, HTML валидацию кода и т.д.). Но этого вполне достаточно, чтобы привести ресурс в порядок.
После того, как вы проведете технический аудит сайта, все ошибки нужно оформить в один файл и отдать вашему программисту, ну или найти хорошего программиста. Я уже писал об этом раньше, рекомендую очень хорошую компанию Inoco, с которой давно работаю.
Если у вас остались вопросы или дополнения, то напишите их в комментарии. Если вам понравилась статья или была полезной, то поделитесь ею в социальных сетях с друзьями.
Часто делаю такую проверку ошибок своего сайта, поскольку так действительно можно обнаружить даже самые не очевидные неполадки.
Хочу уточнить,проверка скорости загрузки страниц проверяется только теми инструментами, что указаны в статье, или можно использовать и другие, например Pingdom Tools?
ну эти сервисы я для примера привел. много чем можно проверять, в том числе и пингдом тулсом.
Очень частый замкнутый круг — сайт зарабатывет мало, потому что нет денег на грамотный технический аудит и толковое исправление ошибок.
Выход из этого круга простой: владельцу научиться самому находить и исправлять эти ошибки.
Я думаю, что такая инструкция больше подойдет для более опытных создателей сайтов, кто уже хорошо разбирается в коде и может сам без проблем провести технический SEO аудит своего сайта.
да
Я новичок в этом деле. После обнаружения битых ссылок, обязательно всё удалять? Например, если сайт небольшой и состоит из нескольких страниц. Или лучше просто заполнить страницу контентом, ну или сделать редирект.
удалять не обязательно. посмотрите, нужны вам эти страницы. если да то восстановите их, заполните контентом. если нет то можете удалить или сделать 301 редирект.
Для проверки времени загрузки страницы могу посоветовать GTmetrix.com, в отличие от SiteReport, он полностью бесплатный. Плюс сразу дает диаграмму, на которой показывается порядок загрузки файлов и время на каждый из них.