Как повысить посещаемость сайта без особых финансовых затрат?
Данная статья готовилась — как ответ на весьма популярный вопрос:
Как добиться посещаемости веб-сайта — хотя бы 100–150 человек в день? Без финансовых затрат. А то... на мой сайт заходят сейчас меньше 100 человек в день. Из года в год... И денег на «раскрутку» — нет.
Ситуация типичная. Сайт — уже есть в Интернет, но его посещаемость невысокая. А хочется ведь иметь приличный трафик! И, что делать-то?
Как правило, ситуация с низкой посещаемостью абсолютно неизбежна, если сайт не оптимизирован для поисковых систем (для новичков в веб-строительстве — это 100% случаев). Не вдаваясь в особые подробности и тонкости процесса SEO попробуем повысить посещаемость ресурса несколькими простыми приемами. Сразу отметим: относительно простыми, некоторые азы ремесла веб-мастера придется изучить. Но, всё же, данная статья предназначена прежде всего для людей абсолютно несведущих в оптимизации и написана (надеюсь) простым человеческим языком.
Начнем сначала. Вот он, перед нами — готовый сайт, самый банальный. С чего начать его «продвижение» в ТОП? (позиции сайта в поисковой выдаче напрямую связаны с его посещаемостью.)
Наметим примерный список наиболее необходимых мероприятий и будем их осуществлять, step by step. Некоторые пункты можно пропустить, если на их реализацию не хватает навыка/времени/желания, но и результат будет ниже ожидаемого.
- Подключение сервисов сбора статистики
- Подключение системы ЧПУ (человеко-понятные урл-ы)
- Оптимизация файла robots.txt
- Определение основных ключевых запросов для Вашего сайта
- Оптимизация заголовков страниц сайта и title каждой страницы
- Оптимизация контента основных страниц сайта
- Проверка и оптимизация форматирования страниц
- Проверка валидности html и css кода сайта
- Добавление сайта в основные поисковые системы
- Проверка статистики и корректировка robots.txt
- Подключение блока «Поделиться» от Яндекс
- Подключение других сервисов Яндекс
- Интеграция с социальными сетями
- Оптимизация скорости/эффективности загрузки страниц в браузер
- Составление карты сайта (файл Sitemap.xml) и размещение его на сайте
- Наращивание ссылочной массы веб-ресурса
- Мониторинг поисковых запросов Яндекс и Гугл, внесение корректив
- Общие рекомендации по оптимизации ресурса
Подключение сервисов сбора статистики
Без статистики сайта решить поставленную задачку будет сложно. Поэтому первое дело: подключение сайта на сбор статистики. Поскольку основная масса посетителей приходит на сайт из поисковых систем (далее по тексту: ПС), то нужна статистика основных ПС: Яндекс и Гугл. Необходимо подключиться к сервисам: Яндекс. Вебмастер и Google Search Console. Через некоторое время накопленная статистика позволит более тонко оптимизировать ресурс (примерно через месяц). Как регистрироваться — рассказывать не буду, разберетесь сами. Упомяну лишь, что необходим аккаунт на Яндекс (если почта там у Вас есть, значит есть и аккаунт). Еще потребуется подтвердить права собственности на Ваш сайт в процессе регистрации. Действо элементарное, но необходимо подключение к серверу по протоколу ftp для загрузки в «корень» сайта проверочных файлов Яндекс и Гугл.
Помимо этого — рекомендовал бы подключить Яндекс. Метрику, пригодится в дальнейшем.
Регистрация в вышеназванных сервисах стоит первым пунктом, поскольку сбор статистических данных требует значительного времени. Чем раньше запустить процесс — тем лучше: «Солдат спит — служба идет».
Подключение системы ЧПУ (человеко-понятные урл-ы)
Все ПС давно научились понимать русский язык (в транслите, конечно). И «правильные» url — играют некоторую роль в ранжировании страниц (это — факт). Например: http://reklama-no.ru/sozdanie-saytov/etapy-razrabotki-sayta
Для ПС (в переводе) страница будет звучать как: «создание сайтов/этапы разработки сайта». В url, таким образом, присутствуют 2-а ключевых запроса, что не останется незамеченным. Поэтому, весьма желательно, чтобы url имели не только «человеко-понятный» вид, но и содержали ключевые слова, соответствующие (конечно) содержанию страницы.
Во всех современных cms есть встроенные системы ЧПУ. Вам нужно их обязательно «включить». Если cms старая, то: стоит поискать в Интернет соответствующий скрипт и установить его. Для наиболее популярных cms — таких скриптов достаточно много. Если не сможете установить/настроить/включить сами — попросите кого-нибудь (нас, например), процесс несложный, но некоторых навыков требует.
Не забываем переименовывать файл htaccess.txt в .htaccess. И не добавляйте к url никаких суффиксов (типа .html).
Оптимизация файла robots.txt
Что такое robots.txt, зачем и почему — Вам расскажет справочник Яндекс (по ссылке). Нас же интересует практическое применение в конкретном приложении.
Для каждого сайта необходимо прописать свой собственный/уникальный файл robots.txt т. к. — каждый сайт уникален и неповторим. Файлик должен находиться в корне Вашего сайта, доставить его туда необходимо по протоколу ftp с помощью программы — файлового менеджера (например, Total Commander). Без этой программы нам никак не обойтись, увы. Так что — качайте и устанавливайте в обязательном порядке, ничего премудрого в этом нет. Постарайтесь найти/установить самую старую версию программы, она более простая в настройках и работает «шустрее».
Сам файл robots.txt редактируем/сохраняем в стандартном Блокноте от Windows.
Будем надеяться, что с программами Вы разберетесь, иначе не стоит читать далее.
Основная задача robots.txt — «отсечь всё лишнее»: заблокировать для ПС доступ к определенным страницам сайта, файлам и папкам. «Лишними» считаем нерелевантные страницы, страницы-дубликаты, «мусорные» url-ы, иные ненужные для индексации материалы. Некоторые общие рекомендации можно обозначить. Например. Ниже — содержимое robots.txt для одного из сайтов (cms Джумла!)
User-agent: * Disallow: /administrator/ Disallow: /cache/ Disallow: /cli/ Disallow: /component/ Disallow: /includes/ Disallow: /language/ Disallow: /libraries/ Disallow: /logs/ Disallow: /tmp/ Disallow: /*index Disallow: /ssylki Disallow: /*? Disallow: /*poisk-po-sajtu Disallow: /*kontakt Disallow: /*avtorizatsiya Disallow: /*index Disallow: /*.mp3$ Disallow: /*.doc$ Disallow: /*.xls$ Disallow: /*.pdf$ Disallow: /*.pptx$ Disallow: /*.zip$ Disallow: /*.rar$ Disallow: /*.swf$ Disallow: /*.htm$ Disallow: /*.html$ Allow: / Host: reklama-no.ru Sitemap: Sitemap.xml
Зеленым цветом обозначены «закрытые» для ПС папки конкретной cms по-умолчанию. Для каждой cms они разные, и (как правило) изначально прописаны в robots.txt еще в процессе инсталляции движка сайта на сервере.
Бордовым цветом обозначены нерелевантные страницы, дубликаты страниц, «мусор». А именно. index почти всегда индексируется поисковиками как Главная страница сайта: https://reklama-no.ru/index, а это, «де-факто» — дубликат реальной Главной: https://reklama-no.ru/. Кроме этого, index часто присутствует в url различных страниц. А это нам абсолютно не нужно (если Вы правильно настроили ЧПУ).
Кроме этого, от индексации следует «закрыть» страницы: контактная информация, каталог ссылок (если есть), поиск по сайту, опросы и результаты опросов, страницы с личными данными пользователей, страницы регистрации и авторизации, другие подобные (служебные) страницы.
Если (опять-таки) ЧПУ настроено верно, то в url сайта не должно быть ?, который всегда присутствует в url страниц сайта с «выключенной» системой ЧПУ.
Синим цветом отмечены файлы различных расширений, что абсолютно не нужны в индексе. Если в настройках ЧПУ Вы «выключили» разрешение страниц .html, то и это расширение стоит упомянуть в «роботсе»: Disallow: /*.html$
Строчка Allow: / разрешает индексацию всего «не запрещенного».
Host: reklama-no.ru определяет главное зеркало сайта. Как правило, определяя с www имя сайта или без www.
Sitemap: Sitemap.xml — указывает поисковым роботам путь к карте сайта.
Определение основных ключевых запросов для вашего сайта
В принципе, с этого надо начинать. По каким ключевым словам необходим заход посетителей сайта? Это одна из важнейших задач. Которую, понятно, должен решить для себя сам владелец сайта. Можно воспользоваться инструментом: Определение частоты запросов в Яндекс. Или ему подобным, их много в Сети. Вообще-то это не совсем верно, но «начерно» — годится. Составьте свой список ключевых запросов для Вашего сайта, проверьте их на частоту спроса и добавьте к ним «что еще люди ищут вместе с...».
Самые важные ключевые слова обязаны: входить в url соответствующих им страниц, в заголовки и title страниц, должны быть усилены тегами strong и em (в разумных пределах) в содержимом страниц, должны являться анкорами ваших ссылок. (Не увлекайтесь в использовании тегов усиления, всё хорошо в меру).
Оптимизация заголовков страниц сайта и title каждой страницы
Что такое title. Заголовок страницы в браузере, невидимый для посетителя, но очень даже видимый для ПС. Это один из наиболее важных факторов для результата поиска. Как именно (технически) прописывается title — определяется конкретной cms сайта, на которой сайт работает. В ряде cms (например, Джумла!) можно прописать на любой странице необходимый Вам title. И это весьма важно. Но: title должен быть правильно составлен для каждой страницы сайта.
- title обязан содержать ключевой запрос (ключевое слово), который можно повторить не более 2-х раз в одном title;
- title может состоять из 7–9 слов (больше не индексируется ПС), постарайтесь максимально реализовать эту возможность;
- в title нежелательно использовать спецсимволы, исключения:
— , ; : |; - Не надо использовать ЗАГЛАВНЫЕ во всем заголовке;
- title должен быть осмысленной фразой, а не набором ключевых слов.
Но не title единым озаглавливается страница. Есть, конечно, специальные теги заголовков: h1,...,h6. Если Вы пользуетесь встроенным редактором сайта при публикации текста, то заголовки формируются автоматически. При составлении заголовков нужно учитывать некоторые важные особенности:
- Тег
<h1>(заголовок первого уровня) должен быть на странице только ОДИН. - Содержимое тега
<h1>(желательно) совпадает с title страницы или идентично ему по ключевым запросам. - Количество тегов
<h2>не должно быть чрезмерным (3–5 на страницу). - Тег
<h1>,…,<h6>не должен быть ссылкой или содержать ссылку в себе. - Категорически нельзя помещать внутрь тегов заголовков теги для акцентирования текста. Например:
<h1><strong>Так делать нельзя</strong></h1>. А так делают очень и очень часто. - Желательно, чтобы заголовки содержали в себе ключевые слова.
- Заголовки уровней 3–6 практически не учитываются при ранжировании страниц.
- Нежелательно использовать в тегах заголовков универсальные атрибуты и события. Можно, но не желательно.
Как считать количество заголовков. Есть сервис, например. Выберите там инструмент Анализ контента и введите url нужной страницы. Инструмент посчитает Вам всё в режиме онлайн.
Чаще всего типовые шаблоны популярных cms не соблюдают рекомендации, указанные выше. Я бы посоветовал — исправить шаблон. Вряд ли это возможно сделать неподготовленному человеку, но... это надо сделать. Чаще всего теги заголовков являются ссылками, заголовки «блоков» как правило нерелевантны, как правило — количество заголовков на странице — огромно. Стоило бы их заменить на безобидные: < span>. Этот фактор — не катастрофа, но негативное влияние на оптимизацию, однозначно, оказывает.
Оптимизация контента основных страниц сайта
Понятно, что основным содержимым сайта является контент. Текст, преимущественно. Собственно, именно текст в первую очередь влияет на поисковую выдачу, на позиции сайта при ранжировании. Какие основные требования к содержимому страниц стоит предъявить:
- Банально, но контент должен быть уникальным. Если уж быть совсем строгим, то можно воспользоваться специальным инструментом для проверки уникальности.
- Количество знаков на одной странице желательно не менее 3000–5000. Но и слишком большой страницу делать не стоит, единого мнения на максимальный размер страницы нет.
- На странице должно быть достаточно много нужных ключевых запросов. Но: не слишком. Я бы рекомендовал не более 10-и повторов одного ключевого слова. Каждая страница должна полностью соответствовать запросу, под который она создана. Иначе попасть в ТОП и удержаться в нем не получится.
- Расположенные ближе к началу страницы ключевые запросы стоит выделить тегами
<strong>или<em>. Не переусердствуйте, их стоит использовать не более 5–10 раз на одну страницу (в зависимости от размера страницы). - На страницах сайта недопустимы лишние внешние ссылки на любые сторонние ресурсы. А ссылки нужны, конечно. С ними нужно бороться. Либо сделать ссылку непрямой (через редирект), либо закрыть ее от индексаци
noindexиnofollow. Обязательно проверяйте все свои основные страницы на предмет «чужих» внешних ссылок (инструмент Анализ контента, например). Во многих шаблонах популярных cms содержатся «подсаженные» при адаптации внешние спам-ссылки. Некоторые счетчики (mail.ru, например) тоже содержат внешние ссылки, закройте их от индексацииnoindexиnofollow. - Картинки — тоже контент. Обязательный для изображения атрибут
altдолжен быть ключевым запросом. - Желательно «прогнать» текст через Типограф, текст станет более приятным для посетителей (сайт, всё же, для людей должен быть).
- Проверьте орфографию, грамматические ошибки заметны не только посетителям, но и ПС.
Проверка и оптимизация форматирования страниц
Ограничусь общей рекомендацией: старайтесь сократить количество кода на странице, максимально используйте css (если есть навык).
Проверка валидности html и css кода сайта
Проверки веб-страниц на наличие ошибок и замечаний сводятся, как правило, к проверке на валидность html и css (Проверка HTML, XHTML; Проверка CSS). Непосредственного влияния на ранжирование в ПС этот фактор не влияет (мнения расходятся), но этот фактор влияет на скорость загрузки страниц сайта и их правильное отображение в браузерах. Так что, стоит выполнить проверку и исправить (по возможности) ошибки.
Добавление сайта в основные ПС
Желательно «прогнать» свой сайт через «аддурилки»: добавить его в наиболее распространенные ПС. Их много и некоторый дополнительный трафик они могут принести, хоть и не очень значительный.
Анализ статистики и корректировка robots.txt
Пока Вы проводили работы по оптимизации — Яндекс и Гугл произвели сбор статистики сайта (сроки неизвестны, для нового сайта — до месяца, старый — побыстрее). Для внесения корректив в robots.txt проверьте в Яндекс. Вебмастер вкладку: «Страницы в поиске». Там наверняка много страниц-паразитов (многие cms генерят толпы таких страниц) и страниц-дублеров. Всех их необходимо закрыть от инлексации в robots.txt директивой Disallow: . Понятно, что «закрывать» нужно постараться по маске, а не каждую страницу в отдельности.
Проверьте, какие страницы закрыты от индексации в Яндекс и Google, какие страницы «Не найдены» и — почему. Некоторые «не найденные» страницы стоит тоже включить в роботс (дабы ПС не выдавали более 404-ю ошибку).
В Гугл. Вебмастер есть инструмент «Оптимизация HTML». Исправьте отмеченные им ошибки по тегам title и description.
Инструменты Вебмастера — отдельная тема, на этом этапе оптимизации отложим их в сторону.
Подключение блока «Поделиться» от Яндекс
Стоит разместить на сайте блок «Поделиться» от Яндекс. Есть шанс, что на них кто-то покликает. Особого толку от них нет, но некоторый крошечный прирост трафика — возможен.
Интеграция с социальными сетями
Нужна ли эта «интеграция» — целиком зависит от тематики сайта. Если у Вас есть свои группы ВКонтакте, на Однокласниках (и т. п.), то установка разных виджетов от популярных соц.сетей вполне может прибавить к посещаемости. Если группы, конечно, не нулевые.
Оптимизация скорости/эффективности загрузки страниц в браузер
Скорость загрузки страниц имеет важное значение. Понятно, что чем быстрее — тем лучше. ПС сегодня понижают в выдаче сайты, которые долго грузятся. Постарайтесь отключить скрипты, которые серьезно тормозят работу сайта и снижают скорость загрузки веб-страниц.
Составление карты сайта (файл Sitemap.xml) и публикация его на сайте
Карта сайта Sitemap.xml представляет собой страницу, на которой собраны все ссылки на разрешенные в robots.txt страницы веб-ресурса. Помогает роботам ПС быстрее индексировать материалы.
Наращивание ссылочной массы веб-ресурса, ненавязчивый «спам»
Если Вы зарегистрировали свой сайт в рейтинге Mail.ru (например), то Вы уже получили на свой ресурс несколько первых ссылок. Есть ли от них польза? Иногда. Но — это «капля в море». Вашему ресурсу нужна «авторитетность». Попробуйте ее создать, если не получается «само-собой».
Мониторинг поисковых запросов ПС Яндекс и Google, внесение корректив
Подключение других сервисов Яндекс
Имеются ввиду разные информеры. Целесообразность их размещения на сайте — на уровне мифологии. Но, если они не мешают и не идут вразрез с дизайном сайта — разместите. Есть (всё же) миф о повышении лояльности ПС при наличии на сайте их «примочек». Откуда-то берутся легенды.
Общие рекомендации по оптимизации ресурса
- Весьма полезна функция «Хлебные крошки». Стоит «включить», если есть такая возможность.
- Озаботьтесь внутренней перелинковкой страниц сайта. Достаточно частая перелинковка внутренних страниц сайта понравится Google. Для этого: даем в тексте ссылки на другие страницы сайта, которые продолжают тему, чем добиваемся увеличения глубины просмотра и времени пребывания посетителя на сайте.
- Уровень вложенности или Глубина просмотра. Уровень вложенности определяется количеством переходов с главной страницы до искомой. Чем их меньше, тем более значимей будет страница в глазах ПС. Поэтому: не поленитесь сделать Карту сайта, с ссылкой на нее с Главной страницы.
- Полезно иметь уникальный favicon.ico
Стоит отметить, что все мои сайты (почти все) прошли этим путем. Можно и оценить полученные результаты. Я ссылок — не покупаю... На тех сайтах, коим досталась «толика внимания», — вполне себе вменяемая посещаемость. Увы, но на всё времени не хватает. Однако... Сделаете лучше? Удачи!
Продолжение следует?.. Может быть.
Удачи
Вопросы можно задать в Комментариях (если случится хотение спрашивать).

Для комментирования материалов регистрация на сайте не нужна. Правила публикации: наличие здравого смысла. Комментарии проходят премодерацию и публикуются только после проверки администратором.