Поисковая оптимизация сайтов: 7 важных компонентов SEO

Поисковая оптимизация сайтов: 7 важных компонентов SEO

Успешное продвижение – непростая и очень ответственная задача. Ресурс для этого должен соответствовать ряду важных требований.

Ключи: Одна фраза на странице

Размещать большое количество ключевиков на странице – не лучшая идея. Чтобы получить желаемый результат, советуем сделать для каждого запроса отдельную страницу. Максимально на ней должно быть 2-3 ключевых слова. 


Отличный эффект получается, если объединить несколько похожих запросов в одно словосочетание или предложение. 

Например:

«придумать название»;

«как самостоятельно придумать название»;

«как придумать название для сайта».


Эти фразы можно объединить в одну. Получится: «как самостоятельно придумать название для сайта»


Такой вариант эффективен, но только когда речь идет о главной странице сайта. В остальных случаях нужно писать 3 статьи: для каждого запроса отдельную. Причем тексты должны быть полноценными и качественными. Так вероятность хорошего индексирования существенно повысится.  

Файлы CSS отдельно от JavaScrip

Поисковые системы совсем сбиваются с толку, когда видят вспомогательный код и контент в одном файле. Робота интересует не внешний вид, а информационное содержимое ресурса. Поэтому коды стилей/функций, расположенные неграмотно, только мешают поисковикам.


Делаем вывод: JavaScript и CSS лучше располагать в разных файлах. 


Пример как делать не стоит: 

<ul>
	<li>block 1</li>
	<li>block 1</li>
	<li>block 1</li>
</ul>

Правильный вариант:

<ul >
	<li >block 1</li>
	<li >block 1</li>
	<li >block 1</li>
</ul>

CSS вместо фоновой картинки

Индивидуальность сайту часто придают с помощью фоновых картинок. Но, к сожалению, страницы от этого начинают загружаться медленнее. Поэтому вместо заливки и фоновых изображений лучше использовать CSS. 


С помощью стилей вы можете форматировать текст, выравнивания его, меняя шрифт и окрашивая нужные участки цветом, устанавливать фон и управлять многими другими параметрами. Загружаться такой сайт будет гораздо быстрее, ведь вес страниц снизится в разы.


Таким образом, мы одним выстрелом убиваем двух зайцев: внешний вид становится более привлекательным для пользователей, а поисковые роботы с большей охотой индексируют сайт. 

Текстовая навигация

Навигацию по сайту можно организовать десятком разных способов. Для этого применяют изображения, анимацию, кнопки и программные скрипты. Посетители сразу обращают внимание на живое броское меню. К тому же оно позволяет быстро и без усилий сориентироваться на сайте.


Однако продвижению ресурса в поисковиках это никак не способствует. Робот не учитывает описанные элементы при индексации из-за отсутствия текста, подписи. Следовательно, сайт теряет рейтинг. 


Идеальным решением проблемы будет текстовая навигация. Похожий эффект дает дублирование графики ключевыми словами.

ЧПУ – человекопонятные URL

Адрес веб-страниц носит либо статичный, либо динамичный характер. Статичные завершаются HTML-расширением, хорошо индексируются поисковыми системами и понятны юзерам. Но чистые HTML-порталы, состоящие из нескольких (а то и десятка) страниц, ушли в прошлое. Им на смену пришли мощные CMS, т.е. системы управления содержимым, которые применяют php и БД.


Увы, многие известные и популярные CMS генерируют адрес сайта по своим правилам. В его состав входит идентификатор разделов и набор цифр. Еще один недостаток такого URL – чрезмерная длина.


Лучше всего структуру каталогов продумать еще на этапе разработки.


Рассмотрим для примера два варианта URL страницы:

"https://itproger.com/pwd.php?cd=6591372197a#8db75956p2"
"https://itproger.com/2019/11/13/Поисковая-оптимизация-сайтов/"

Первый вариант совершенно непонятен. В нем не прослеживается структура сайта. Никакой смысловой нагрузки знаки не несут. 


Во втором, напротив, пользователю сразу видна главная информация. /2019/11/13/ это дата публикации, а /Поисковая-оптимизация-сайтов/ ее название. 


Вот что значит человекопонятный URL. Именно такие адреса положительно сказываются на SEO. 

Использование Sitemap

Существенно улучшить индексацию можно с помощью файла Sitemap XML. Он создается для поисковых систем и представляет собой карту сайта с текстовыми ссылками на страницы. 


В CMS обычно предусмотрены функции для автоматического создания таких файлов. Также в интернете есть много специальных сервисов. Карта сайта имеет расширение .XML.

Важно: данный элемент нуждается в регулярном обновлении. 


Содержимое Sitemap сильно влияет на качество и быстроту индексации сайта поисковиком.

Применение Robots Txt

В завершение поговорим о неотъемлемом атрибуте всех качественных сайтов – документе ROBOTS.TXT. Он особенно важен, поскольку включает в себя инструкции для роботов поисковых систем.


Главное назначение этого файла – «спрятать» от поисковиков папки и документы, в которых содержатся данные пользователя и техническая информация вроде скриптов и т.п. Так обеспечивается защита административной панели ресурса от несанкционированных действий. В Robots прописаны индивидуальные команды для роботов, и грамотное управление ими способствует улучшению позиции сайта в выдаче.


Помимо 7-и рассмотренных способов, есть огромное множество других параметров, которые влияют на индексацию страниц. Но даже соблюдение этих простых принципов заметно поднимет ваш сайт в поисковой выдаче и сделает его более привлекательным для пользователей, а следовательно и более посещаемым.  

()
Количество показов: 74
17 ноября 2019

Возврат к списку

Корзина0 позиций на сумму 0 руб.