Как повысить посещаемость сайта без особых финансовых затрат?
Данная статья готовилась — как ответ на весьма популярный вопрос:
Как добиться посещаемости веб-сайта — хотя бы 100–150 человек в день? Без финансовых затрат. А то... на мой сайт заходят сейчас меньше 100 человек в день. Из года в год... И денег на «раскрутку» — нет.
Ситуация типичная. Сайт — уже есть в Интернет, но его посещаемость невысокая. А хочется ведь иметь приличный трафик! И, что делать-то?
Как правило, ситуация с низкой посещаемостью абсолютно неизбежна, если сайт не оптимизирован для поисковых систем (для новичков в веб-строительстве — это 100% случаев). Не вдаваясь в особые подробности и тонкости процесса SEO попробуем повысить посещаемость ресурса несколькими простыми приемами. Сразу отметим: относительно простыми, некоторые азы ремесла веб-мастера придется изучить. Но, всё же, данная статья предназначена прежде всего для людей абсолютно несведущих в оптимизации и написана (надеюсь) простым человеческим языком.
Начнем сначала. Вот он, перед нами — готовый сайт, самый банальный. С чего начать его «продвижение» в ТОП? (позиции сайта в поисковой выдаче напрямую связаны с его посещаемостью.)
Наметим примерный список наиболее необходимых мероприятий и будем их осуществлять, step by step. Некоторые пункты можно пропустить, если на их реализацию не хватает навыка/времени/желания, но и результат будет ниже ожидаемого.
- Подключение сервисов сбора статистики
- Подключение системы ЧПУ (человеко-понятные урл-ы)
- Оптимизация файла robots.txt
- Определение основных ключевых запросов для Вашего сайта
- Оптимизация заголовков страниц сайта и title каждой страницы
- Оптимизация контента основных страниц сайта
- Проверка и оптимизация форматирования страниц
- Проверка валидности html и css кода сайта
- Добавление сайта в основные поисковые системы
- Проверка статистики и корректировка robots.txt
- Подключение блока «Поделиться» от Яндекс
- Подключение других сервисов Яндекс
- Интеграция с социальными сетями
- Оптимизация скорости/эффективности загрузки страниц в браузер
- Составление карты сайта (файл Sitemap.xml) и размещение его на сайте
- Наращивание ссылочной массы веб-ресурса
- Мониторинг поисковых запросов Яндекс и Гугл, внесение корректив
- Общие рекомендации по оптимизации ресурса
Подключение сервисов сбора статистики
Без статистики сайта решить поставленную задачку будет сложно. Поэтому первое дело: подключение сайта на сбор статистики. Поскольку основная масса посетителей приходит на сайт из поисковых систем (далее по тексту: ПС), то нужна статистика основных ПС: Яндекс и Гугл. Необходимо подключиться к сервисам: Яндекс. Вебмастер и Google Search Console. Через некоторое время накопленная статистика позволит более тонко оптимизировать ресурс (примерно через месяц). Как регистрироваться — рассказывать не буду, разберетесь сами. Упомяну лишь, что необходим аккаунт на Яндекс (если почта там у Вас есть, значит есть и аккаунт). Еще потребуется подтвердить права собственности на Ваш сайт в процессе регистрации. Действо элементарное, но необходимо подключение к серверу по протоколу ftp для загрузки в «корень» сайта проверочных файлов Яндекс и Гугл.
Помимо этого — рекомендовал бы подключить Яндекс. Метрику, а также установить счетчики liveinternet, Rambler, Mail. Ru. Всё это пригодится в дальнейшем.
Регистрация в вышеназванных сервисах стоит первым пунктом, поскольку сбор статистических данных требует значительного времени. Чем раньше запустить процесс — тем лучше: «Солдат спит — служба идет».
Подключение системы ЧПУ (человеко-понятные урл-ы)
Все ПС давно научились понимать русский язык (в транслите, конечно). И «правильные» url — играют некоторую роль в ранжировании страниц (это — факт). Например: http://reklama-no.ru/sozdanie-saytov/etapy-razrabotki-sayta
Для ПС (в переводе) страница будет звучать как: «создание сайтов/этапы разработки сайта». В url, таким образом, присутствуют 2-а ключевых запроса, что не останется незамеченным. Поэтому, весьма желательно, чтобы url имели не только «человеко-понятный» вид, но и содержали ключевые слова, соответствующие (конечно) содержанию страницы.
Во всех современных cms есть встроенные системы ЧПУ. Вам нужно их обязательно «включить». Если cms старая, то: стоит поискать в Интернет соответствующий скрипт и установить его. Для наиболее популярных cms — таких скриптов достаточно много. Если не сможете установить/настроить/включить сами — попросите кого-нибудь (нас, например), процесс несложный, но некоторых навыков требует.
Не забываем переименовывать файл htaccess.txt
в .htaccess
. И не добавляйте к url никаких суффиксов (типа .html
).
Оптимизация файла robots.txt
Что такое robots.txt, зачем и почему — Вам расскажет справочник Яндекс (по ссылке). Нас же интересует практическое применение в конкретном приложении.
Для каждого сайта необходимо прописать свой собственный/уникальный файл robots.txt т. к. — каждый сайт уникален и неповторим. Файлик должен находиться в корне Вашего сайта, доставить его туда необходимо по протоколу ftp с помощью программы — файлового менеджера (например, Total Commander). Без этой программы нам никак не обойтись, увы. Так что — качайте и устанавливайте в обязательном порядке, ничего премудрого в этом нет. Постарайтесь найти/установить самую старую версию программы, она более простая в настройках и работает «шустрее».
Сам файл robots.txt редактируем/сохраняем в стандартном Блокноте от Windows.
Будем надеяться, что с программами Вы разберетесь, иначе не стоит читать далее.
Основная задача robots.txt — «отсечь всё лишнее»: заблокировать для ПС доступ к определенным страницам сайта, файлам и папкам. «Лишними» считаем нерелевантные страницы, страницы-дубликаты, «мусорные» url-ы, иные ненужные для индексации материалы. Некоторые общие рекомендации можно обозначить. Например. Ниже — содержимое robots.txt для одного из сайтов (cms Джумла!)
User-agent: * Disallow: /administrator/ Disallow: /cache/ Disallow: /cli/ Disallow: /component/ Disallow: /includes/ Disallow: /language/ Disallow: /libraries/ Disallow: /logs/ Disallow: /tmp/ Disallow: /*index Disallow: /ssylki Disallow: /*? Disallow: /*poisk-po-sajtu Disallow: /*kontakt Disallow: /*avtorizatsiya Disallow: /*index Disallow: /*.mp3$ Disallow: /*.doc$ Disallow: /*.xls$ Disallow: /*.pdf$ Disallow: /*.pptx$ Disallow: /*.zip$ Disallow: /*.rar$ Disallow: /*.swf$ Disallow: /*.htm$ Disallow: /*.html$ Allow: / Host: reklama-no.ru Sitemap: Sitemap.xml
Зеленым цветом обозначены «закрытые» для ПС папки конкретной cms по-умолчанию. Для каждой cms они разные, и (как правило) изначально прописаны в robots.txt еще в процессе инсталляции движка сайта на сервере.
Бордовым цветом обозначены нерелевантные страницы, дубликаты страниц, «мусор». А именно. index
почти всегда индексируется поисковиками как Главная страница сайта: http://reklama-no.ru/index
, а это, «де-факто» — дубликат реальной Главной: http://reklama-no.ru/
. Кроме этого, index
часто присутствует в url различных страниц. А это нам абсолютно не нужно (если Вы правильно настроили ЧПУ).
Кроме этого, от индексации следует «закрыть» страницы: контактная информация, каталог ссылок (если есть), поиск по сайту, опросы и результаты опросов, страницы с личными данными пользователей, страницы регистрации и авторизации, другие подобные (служебные) страницы.
Если (опять-таки) ЧПУ настроено верно, то в url сайта не должно быть ?
, который всегда присутствует в url страниц сайта с «выключенной» системой ЧПУ.
Синим цветом отмечены файлы различных расширений, что абсолютно не нужны в индексе. Если в настройках ЧПУ Вы «выключили» разрешение страниц .html
, то и это расширение стоит упомянуть в «роботсе»: Disallow: /*.html$
Строчка Allow: /
разрешает индексацию всего «не запрещенного».
Host: reklama-no.ru
определяет главное зеркало сайта. Как правило, определяя с www имя сайта или без www.
Sitemap: Sitemap.xml
— указывает поисковым роботам путь к карте сайта.
Определение основных ключевых запросов для вашего сайта
В принципе, с этого надо начинать. По каким ключевым словам необходим заход посетителей сайта? Это одна из важнейших задач. Которую, понятно, должен решить для себя сам владелец сайта. Можно воспользоваться инструментом: Определение частоты запросов в Яндекс. Или ему подобным, их много в Сети. Вообще-то это не совсем верно, но «начерно» — годится. Составьте свой список ключевых запросов для Вашего сайта, проверьте их на частоту спроса и добавьте к ним «что еще люди ищут вместе с...».
Самые важные ключевые слова обязаны: входить в url соответствующих им страниц, в заголовки и title страниц, должны быть усилены тегами strong
и em
(в разумных пределах) в содержимом страниц, должны являться анкорами ваших ссылок. (Не увлекайтесь в использовании тегов усиления, всё хорошо в меру).
Оптимизация заголовков страниц сайта и title каждой страницы
Что такое title. Заголовок страницы в браузере, невидимый для посетителя, но очень даже видимый для ПС. Это один из наиболее важных факторов для результата поиска. Как именно (технически) прописывается title — определяется конкретной cms сайта, на которой сайт работает. В ряде cms (например, Джумла!) можно прописать на любой странице необходимый Вам title. И это весьма важно. Но: title должен быть правильно составлен для каждой страницы сайта.
- title обязан содержать ключевой запрос (ключевое слово), который можно повторить не более 2-х раз в одном title;
- title может состоять из 7–9 слов (больше не индексируется ПС), постарайтесь максимально реализовать эту возможность;
- в title нежелательно использовать спецсимволы, исключения:
— , ; : |
; - Не надо использовать ЗАГЛАВНЫЕ во всем заголовке;
- title должен быть осмысленной фразой, а не набором ключевых слов.
Но не title единым озаглавливается страница. Есть, конечно, специальные теги заголовков: h1,...,h6. Если Вы пользуетесь встроенным редактором сайта при публикации текста, то заголовки формируются автоматически. При составлении заголовков нужно учитывать некоторые важные особенности:
- Тег
<h1>
(заголовок первого уровня) должен быть на странице только ОДИН. - Содержимое тега
<h1>
(желательно) совпадает с title страницы или идентично ему по ключевым запросам. - Количество тегов
<h2>
не должно быть чрезмерным (3–5 на страницу). - Тег
<h1>,…,<h6>
не должен быть ссылкой или содержать ссылку в себе. - Категорически нельзя помещать внутрь тегов заголовков теги для акцентирования текста. Например:
<h1><strong>Так делать нельзя</strong></h1>
. А так делают очень и очень часто. - Желательно, чтобы заголовки содержали в себе ключевые слова.
- Заголовки уровней 3–6 практически не учитываются при ранжировании страниц.
- Нежелательно использовать в тегах заголовков универсальные атрибуты и события. Можно, но не желательно.
Как считать количество заголовков. Есть сервис, например. Выберите там инструмент Анализ контента и введите url нужной страницы. Инструмент посчитает Вам всё в режиме онлайн.
Чаще всего типовые шаблоны популярных cms не соблюдают рекомендации, указанные выше. Я бы посоветовал — исправить шаблон. Вряд ли это возможно сделать неподготовленному человеку, но... это надо сделать. Чаще всего теги заголовков являются ссылками, заголовки «блоков» как правило нерелевантны, как правило — количество заголовков на странице — огромно. Стоило бы их заменить на безобидные: < span>
. Этот фактор — не катастрофа, но негативное влияние на оптимизацию, однозначно, оказывает.
Оптимизация контента основных страниц сайта
Понятно, что основным содержимым сайта является контент. Текст, преимущественно. Собственно, именно текст в первую очередь влияет на поисковую выдачу, на позиции сайта при ранжировании. Какие основные требования к содержимому страниц стоит предъявить:
- Банально, но контент должен быть уникальным. Если уж быть совсем строгим, то можно воспользоваться специальным инструментом для проверки уникальности.
- Количество знаков на одной странице желательно не менее 3000–5000. Но и слишком большой страницу делать не стоит, единого мнения на максимальный размер страницы нет.
- На странице должно быть достаточно много нужных ключевых запросов. Но: не слишком. Я бы рекомендовал не более 10-и повторов одного ключевого слова. Каждая страница должна полностью соответствовать запросу, под который она создана. Иначе попасть в ТОП и удержаться в нем не получится.
- Расположенные ближе к началу страницы ключевые запросы стоит выделить тегами
<strong>
или<em>
. Не переусердствуйте, их стоит использовать не более 5–10 раз на одну страницу (в зависимости от размера страницы). - На страницах сайта недопустимы лишние внешние ссылки на любые сторонние ресурсы. А ссылки нужны, конечно. С ними нужно бороться. Либо сделать ссылку непрямой (через редирект), либо закрыть ее от индексаци
noindex
иnofollow
. Обязательно проверяйте все свои основные страницы на предмет «чужих» внешних ссылок (инструмент Анализ контента, например). Во многих шаблонах популярных cms содержатся «подсаженные» при адаптации внешние спам-ссылки. Некоторые счетчики (mail.ru, например) тоже содержат внешние ссылки, закройте их от индексацииnoindex
иnofollow
. - Картинки — тоже контент. Обязательный для изображения атрибут
alt
должен быть ключевым запросом. - Желательно «прогнать» текст через Типограф, текст станет более приятным для посетителей (сайт, всё же, для людей должен быть).
- Проверьте орфографию, грамматические ошибки заметны не только посетителям, но и ПС.
Проверка и оптимизация форматирования страниц
Ограничусь общей рекомендацией: старайтесь сократить количество кода на странице, максимально используйте css (если есть навык).
Проверка валидности html и css кода сайта
Проверки веб-страниц на наличие ошибок и замечаний сводятся, как правило, к проверке на валидность html и css (Проверка HTML, XHTML; Проверка CSS). Непосредственного влияния на ранжирование в ПС этот фактор не влияет (мнения расходятся), но этот фактор влияет на скорость загрузки страниц сайта и их правильное отображение в браузерах. Так что, стоит выполнить проверку и исправить (по возможности) ошибки.
Добавление сайта в основные ПС
Желательно «прогнать» свой сайт через «аддурилки»: добавить его в наиболее распространенные ПС. Их много и некоторый дополнительный трафик они могут принести, хоть и не очень значительный.
Анализ статистики и корректировка robots.txt
Пока Вы проводили работы по оптимизации — Яндекс и Гугл произвели сбор статистики сайта (сроки неизвестны, для нового сайта — до месяца, старый — побыстрее). Для внесения корректив в robots.txt проверьте в Яндекс. Вебмастер вкладку: «Страницы в поиске». Там наверняка много страниц-паразитов (многие cms генерят толпы таких страниц) и страниц-дублеров. Всех их необходимо закрыть от инлексации в robots.txt директивой Disallow:
. Понятно, что «закрывать» нужно постараться по маске, а не каждую страницу в отдельности.
Проверьте, какие страницы закрыты от индексации в Яндекс и Google, какие страницы «Не найдены» и — почему. Некоторые «не найденные» страницы стоит тоже включить в роботс (дабы ПС не выдавали более 404-ю ошибку).
В Гугл. Вебмастер есть инструмент «Оптимизация HTML». Исправьте отмеченные им ошибки по тегам title и description.
Инструменты Вебмастера — отдельная тема, на этом этапе оптимизации отложим их в сторону.
Подключение блока «Поделиться» от Яндекс
Стоит разместить на сайте блок «Поделиться» от Яндекс. Есть шанс, что на них кто-то покликает. Особого толку от них нет, но некоторый крошечный прирост трафика — возможен.
Интеграция с социальными сетями
Нужна ли эта «интеграция» — целиком зависит от тематики сайта. Если у Вас есть свои группы ВКонтакте, на Однокласниках (и т. п.), то установка разных виджетов от популярных соц.сетей вполне может прибавить к посещаемости. Если группы, конечно, не нулевые.
Оптимизация скорости/эффективности загрузки страниц в браузер
Скорость загрузки страниц имеет важное значение. Понятно, что чем быстрее — тем лучше. ПС сегодня понижают в выдаче сайты, которые долго грузятся. Постарайтесь отключить скрипты, которые серьезно тормозят работу сайта и снижают скорость загрузки веб-страниц.
Составление карты сайта (файл Sitemap.xml) и публикация его на сайте
Карта сайта Sitemap.xml представляет собой страницу, на которой собраны все ссылки на разрешенные в robots.txt страницы веб-ресурса. Помогает роботам ПС быстрее индексировать материалы.
Наращивание ссылочной массы веб-ресурса, ненавязчивый «спам»
Если Вы зарегистрировали свой сайт в рейтинге Mail.ru (например), то Вы уже получили на свой ресурс несколько первых ссылок. Есть ли от них польза? Иногда. Но — это «капля в море». Вашему ресурсу нужна «авторитетность». Попробуйте ее создать, если не получается «само-собой».
Мониторинг поисковых запросов ПС Яндекс и Google, внесение корректив
Подключение других сервисов Яндекс
Имеются ввиду разные информеры. Целесообразность их размещения на сайте — на уровне мифологии. Но, если они не мешают и не идут вразрез с дизайном сайта — разместите. Есть (всё же) миф о повышении лояльности ПС при наличии на сайте их «примочек». Откуда-то берутся легенды.
Общие рекомендации по оптимизации ресурса
- Весьма полезна функция «Хлебные крошки». Стоит «включить», если есть такая возможность.
- Озаботьтесь внутренней перелинковкой страниц сайта. Достаточно частая перелинковка внутренних страниц сайта понравится Google. Для этого: даем в тексте ссылки на другие страницы сайта, которые продолжают тему, чем добиваемся увеличения глубины просмотра и времени пребывания посетителя на сайте.
- Уровень вложенности или Глубина просмотра. Уровень вложенности определяется количеством переходов с главной страницы до искомой. Чем их меньше, тем более значимей будет страница в глазах ПС. Поэтому: не поленитесь сделать Карту сайта, с ссылкой на нее с Главной страницы.
- Полезно иметь уникальный favicon.ico
Стоит отметить, что все мои сайты (почти все) прошли этим путем. Можно и оценить полученные результаты. Я ссылок — не покупаю... На тех сайтах, коим досталась «толика внимания», — вполне себе вменяемая посещаемость. Увы, но на всё времени не хватает. Однако... Сделаете лучше? Удачи!
Продолжение следует?.. Может быть.
УдачиВопросы можно задать в Комментариях (если случится хотение спрашивать).
Для комментирования материалов регистрация на сайте не нужна. Правила публикации: наличие здравого смысла. Комментарии проходят премодерацию и публикуются только после проверки администратором.