SEO техническая оптимизация сайта
Поисковики постоянно борются за чистую выдачу, за показ только тех ресурсов, которые не только отвечают на нужный запрос, но и имеют техническую SEO оптимизацию на сайте. Поэтому я решил сделать список с исправлением технических ошибок на сайте. Который будет помогать в первую очередь новичкам в SEO.
SEO технической оптимизацией сайта называют, исправление технических ошибок, которые теоретический мешают отображать сайт правильно для пользователей. И такого рода ошибки могут фиксировать поисковые боты, из-за чего ранжирование сайта будет хуже, чем у конкурентов, которые не имеют таких оплошностей. А теперь разберемся, над чем же стоит поработать?
1. Правильная индексация сайта
Под грамотной индексацией сайта подразумевается исключения дублей страниц из индекса, а так же тех страниц, которые не несут информации для пользователей. То есть, чем больше будет полезных страниц в индексе и меньше мусора, тем более выгодными будут позиции для около топовых продвигаемых запросов.
Что следует закрывать от индексации:
- Админ панель;
- Различные мусорные страницы;
- Переход на главную через index.html;
- www или без на выбор;
- 404 ошибку;
- дублирование feed страниц.
Индексация сайта в Яндексе
Начну проверку индексации сайта в Яндексе, а для этого требуется в поиске написать следующую строчку — host:сайт.ru* | host:www.сайт.ru* . Она поможет узнать, сколько страниц у вас в индексе, а так же найти то, что стоит запретить от индексации.
Вот собственно, какие я нашел ошибки у себя при проверке сайта:В общем мною было найдено 3 страницы из 93, которые не должны быть в индексе т.к. они пустые и не несут пользы для посетителей. Но когда-то у меня было 30-40% мусора от общего числа страниц, которые так же мешали продвигаться.
Индексация сайта в Google
Теперь проведем проверку индексации сайта в Google, но там нужно писать фразу в поиске — site: сайт.ru. Стоит заметить, что в поиске вы можете увидеть так же страницы закрытые от индекса через robots. Выходит в поиске будет примерно в 2 раза больше результатов по сайту.
Вот собственно, что мне удалось найти из своих ошибок:
В общем-то нашел 7 стр из 107 стр, которые не должны быть в индексе. Честно сказать, был удивлен найти столько ошибок. Однако ранее мусора было более 50% в выдачи, что действительно не давало сайту шанса для развития.
Как закрыть страницы от индексации
Для того, что бы закрыть страницы от индексации, такие как дубли или мусор, потребуется редактировать несколько документов, а именно htaccess и robots. Но конечно же все по порядку.
Htaccess — это файл находящийся в корневой папки сайта, который конфигурирует работу сервера в разных директориях, не давая при этом доступа к главному конфигурационному файлу. Допустим в этом файле можно настроить редирект, а так же можно менять название индексных файлов, да и собственно указывать, что допустить до индекса, а что нет. Думаю скоро напишу об этом файле в отдельности.
Robots.txt — это файл исключительно служащий для поисковых систем, где нужно указывать некие правила индексирования страниц. И можно было бы обойтись одним этим файлом, но почему-то иногда в индекс проскальзывают страницы, которые не должны там быть (это касается индексации Google). Впрочем, я уже рассказывал, как правильно настраивать robots, поэтому идем к следующему пункту.
2. Скорость загрузки страниц сайта
Быстрый сайт — залог высокой конверсии, тем самым будет меньше отказов, больше просмотров страниц и конечно же выше позиции сайта. Поэтому медленная загрузка страниц сайта считается технической ошибкой. Сначала проверяем сайт в Google page speed, где более 85-ти баллов считается отличным результатом!
Так же Google покажет список ошибок, которые стоит устранить для ускорения загрузки страниц. При этом результаты проверки главной страницы и любой другой из вашего сайта, могут отличаться результатами. Из-за того, что на страницах с контентом может быть подгрузка дополнительных скриптов или наоборот.
Так как Гугл просто сообщает о наличии ошибок, поэтому советую так же попробовать сервис Pingdom, который более детально отобразить время затраченное на загрузку отдельных элементов. Думаю в будущем поисковики смогут определять не только скорость передачи первого байта, но и момент полной загрузки страницы.
Основные проблемы медленной загрузки страниц:
- Некачественный хостинг, либо плохо настроенный;
- Ошибки в коде/скриптах (создающие глюки);
- Картинки большого размера;
- Загрузка скриптов и CSS в начале страницы (в области head);
- Отсутствие gzip сжатия (90% сжатия информации);
- Отсутствие кеширования страниц.
Когда-то ради ускорения сайта даже пришлось сменить хостинг. Благодаря Pingdom, я смог установить эту причину. Передача первой информации о сайте длилась 800 мс (0.8 сек). Казалось, что сайт загружается вечность, но при переходе на Sprinthost, удалось сократить до 100-300 мс (в зависимости от региона), а платил за хостинг столько же.
Удивило то, что по средне-частотным запросам, я стал попадать в топ 10, а до этого получалось продвигать лишь низко-частотные ключевые слова. Благодаря чему резко увеличился трафик, как из Google, так и из Яндекса.
3. Наличие ошибок или мусора в HTML
К примеру существуют общие стандарты для страниц, используя которые можно повысить свои шансы попадания в топ. Думаю будет полезным, если разобью HTML ошибки на несколько видов.
Ошибки в коде
Иногда дизайнеры и верстальщики допускают ошибки в коде, которые не отображаются на дизайне, однако сигнализируют о техническом кривом коде. Что бы проверить код сайта на ошибки, для этого используют Валидатор.
Благодаря которому, можно узнать, насколько порядочным был ваш верстальщик шаблона. Об устранение ошибок с помощью валидатора я уже рассказывал тут.
Если у вас отсутствуют фатальные ошибки в коде, то возможно устранение мелких ошибок может и не дать результатов, но это все равно будет полезной работой для вашего ресурса!
Frame
Фрейм — это загрузка различных документов в окне, которое не индексируются. А это значит доп. нагрузка на сервер + фрейм не учитывается, как контент — поэтому их стоит избегать!
Это могут быть, допустим социальные кнопки от различных сервисов или видео. Безусловно сейчас научились делать фреймы, которые выгружает данные в html код и это кешируется. Но это требует проверки с вашей стороны.
К примеру фрейм видео проигрывателя действительно имеет html с названием видео и некой ссылкой, однако при запуске видео, метрика показывает, что ваш сайт свернули и перешли на другую вкладку, что не является плюсом для поведенческих.
Теги h1-h6
Теги H1 — обозначают заголовок страницы и он должен присутствовать всего 1 раз на странице и содержать в себе ключевое слово (обязательно для попадания в топ!).
Тег H2 — второй по значению заголовок, который может повторяться многократно. Его SEO оптимизаторы используют чаще всего под НЧ (низко частотные ключевые слова), по которым так же идет продвижение страницы. Потому, что Яндекс из h2 создает дополнительные заголовки для сниппетов, что позволяет круто продвигаться по запросам.
Вот поэтому сайт имеющий дополнительные теги h2 на страницах имеет больше шансов собирать больше посещений на страницу.
Теги от h3 до h6 — являются дополнительными (вспомогательными) заголовками для раскрытия более детально, какой-либо информации в контенте. Не стоит их вносить в заголовки виджетов или подвал сайта!
Еще одно правило, которое следует соблюдать, это градацию тегов. Тег h1 должен идти первым в контенте, только после него должен быть h2. Ну а теги h3-h6 идут следом.
Что дает исправление технических ошибок
Более 80% людей, которые обращались ко мне с просьбой посмотреть их сайт и сказать, что не так, имели именно такие ошибки. После устранения которых, всем удавалось подняться по позициям! Вот почему, я рекомендую сначала заняться исправлением технических ошибок, а уже потом искать способы, как раскрутить определенные страницы.
Отличная статья, которая помогла мне устранить так много ошибок. Спасибо большое за информацию!