Успешное продвижение – непростая и очень ответственная задача. Ресурс для этого должен соответствовать ряду важных требований.
Размещать большое количество ключевиков на странице – не лучшая идея. Чтобы получить желаемый результат, советуем сделать для каждого запроса отдельную страницу. Максимально на ней должно быть 2-3 ключевых слова.
Отличный эффект получается, если объединить несколько похожих запросов в одно словосочетание или предложение.
Например:
«придумать название»;
«как самостоятельно придумать название»;
«как придумать название для сайта».
Эти фразы можно объединить в одну. Получится: «как самостоятельно придумать название для сайта».
Такой вариант эффективен, но только когда речь идет о главной странице сайта. В остальных случаях нужно писать 3 статьи: для каждого запроса отдельную. Причем тексты должны быть полноценными и качественными. Так вероятность хорошего индексирования существенно повысится.
Поисковые системы совсем сбиваются с толку, когда видят вспомогательный код и контент в одном файле. Робота интересует не внешний вид, а информационное содержимое ресурса. Поэтому коды стилей/функций, расположенные неграмотно, только мешают поисковикам.
Делаем вывод: JavaScript и CSS лучше располагать в разных файлах.
Пример как делать не стоит:
<ul>
<li>block 1</li>
<li>block 1</li>
<li>block 1</li>
</ul>
Правильный вариант:
<ul >
<li >block 1</li>
<li >block 1</li>
<li >block 1</li>
</ul>
Индивидуальность сайту часто придают с помощью фоновых картинок. Но, к сожалению, страницы от этого начинают загружаться медленнее. Поэтому вместо заливки и фоновых изображений лучше использовать CSS.
С помощью стилей вы можете форматировать текст, выравнивания его, меняя шрифт и окрашивая нужные участки цветом, устанавливать фон и управлять многими другими параметрами. Загружаться такой сайт будет гораздо быстрее, ведь вес страниц снизится в разы.
Таким образом, мы одним выстрелом убиваем двух зайцев: внешний вид становится более привлекательным для пользователей, а поисковые роботы с большей охотой индексируют сайт.
Навигацию по сайту можно организовать десятком разных способов. Для этого применяют изображения, анимацию, кнопки и программные скрипты. Посетители сразу обращают внимание на живое броское меню. К тому же оно позволяет быстро и без усилий сориентироваться на сайте.
Однако продвижению ресурса в поисковиках это никак не способствует. Робот не учитывает описанные элементы при индексации из-за отсутствия текста, подписи. Следовательно, сайт теряет рейтинг.
Идеальным решением проблемы будет текстовая навигация. Похожий эффект дает дублирование графики ключевыми словами.
Адрес веб-страниц носит либо статичный, либо динамичный характер. Статичные завершаются HTML-расширением, хорошо индексируются поисковыми системами и понятны юзерам. Но чистые HTML-порталы, состоящие из нескольких (а то и десятка) страниц, ушли в прошлое. Им на смену пришли мощные CMS, т.е. системы управления содержимым, которые применяют php и БД.
Увы, многие известные и популярные CMS генерируют адрес сайта по своим правилам. В его состав входит идентификатор разделов и набор цифр. Еще один недостаток такого URL – чрезмерная длина.
Лучше всего структуру каталогов продумать еще на этапе разработки.
Рассмотрим для примера два варианта URL страницы:
"https://itproger.com/pwd.php?cd=6591372197a#8db75956p2"
"https://itproger.com/2019/11/13/Поисковая-оптимизация-сайтов/"
Первый вариант совершенно непонятен. В нем не прослеживается структура сайта. Никакой смысловой нагрузки знаки не несут.
Во втором, напротив, пользователю сразу видна главная информация. /2019/11/13/ - это дата публикации, а /Поисковая-оптимизация-сайтов/ - ее название.
Вот что значит человекопонятный URL. Именно такие адреса положительно сказываются на SEO.
Существенно улучшить индексацию можно с помощью файла Sitemap XML. Он создается для поисковых систем и представляет собой карту сайта с текстовыми ссылками на страницы.
В CMS обычно предусмотрены функции для автоматического создания таких файлов. Также в интернете есть много специальных сервисов. Карта сайта имеет расширение .XML.
Важно: данный элемент нуждается в регулярном обновлении.
Содержимое Sitemap сильно влияет на качество и быстроту индексации сайта поисковиком.
В завершение поговорим о неотъемлемом атрибуте всех качественных сайтов – документе ROBOTS.TXT
. Он особенно важен, поскольку включает в себя инструкции для роботов поисковых систем.
Главное назначение этого файла – «спрятать» от поисковиков папки и документы, в которых содержатся данные пользователя и техническая информация вроде скриптов и т.п. Так обеспечивается защита административной панели ресурса от несанкционированных действий. В Robots прописаны индивидуальные команды для роботов, и грамотное управление ими способствует улучшению позиции сайта в выдаче.
Помимо 7-и рассмотренных способов, есть огромное множество других параметров, которые влияют на индексацию страниц. Но даже соблюдение этих простых принципов заметно поднимет ваш сайт в поисковой выдаче и сделает его более привлекательным для пользователей, а следовательно и более посещаемым.