Skip to main content
создание сайта под ключ
×

Обсудить проект

Заполните форму, наш специалист свяжется с вами для консультации (бесплатно), составит для вас персональное предложение. Или звоните: +7(916) 107-51-99 (10.00–18.00, Мск.)

Как к вам обращаться?
Сообщите корректный адрес электронной почты.
Заполните поле, опишите суть задачи.
Необходимо подтвердить согласие с Политикой.

Как повысить посещаемость сайта без особых финансовых затрат?

повысить посещаемость сайта

Данная статья готовилась — как ответ на весьма популярный вопрос:

Как добиться посещаемости веб-сайта — хотя бы 100–150 человек в день? Без финансовых затрат. А то… на мой сайт заходят сейчас меньше 100 человек в день. Из года в год… И денег на «раскрутку» — нет.

Ситуация типичная. Сайт — уже есть в Интернет, но его посещаемость невысокая. А хочется ведь иметь приличный трафик! И, что делать-то?

Как правило, ситуация с низкой посещаемостью абсолютно неизбежна, если сайт не оптимизирован для поисковых систем (для новичков в веб-строительстве — это 100% случаев). Не вдаваясь в особые подробности и тонкости процесса SEO попробуем повысить посещаемость ресурса несколькими простыми приемами. Сразу отметим: относительно простыми, некоторые азы ремесла веб-мастера придется изучить. Но, всё же, данная статья предназначена прежде всего для людей абсолютно несведущих в оптимизации и написана (надеюсь) простым человеческим языком.

Начнем сначала. Вот он, перед нами — готовый сайт, самый банальный. С чего начать его «продвижение» в ТОП? (позиции сайта в поисковой выдаче напрямую связаны с его посещаемостью.)

Наметим примерный список наиболее необходимых мероприятий и будем их осуществлять, step by step. Некоторые пункты можно пропустить, если на их реализацию не хватает навыка/времени/желания, но и результат будет ниже ожидаемого. Итак.

Подключение сервисов сбора статистики

Без статистики сайта решить поставленную задачку будет сложно. Поэтому первое дело: подключение сайта на сбор статистики. Поскольку основная масса посетителей приходит на сайт из поисковых систем (далее по тексту: ПС), то нужна статистика основных ПС: Яндекс и Гугл. Необходимо подключиться к сервисам: Яндекс. Вебмастер и Гугл. Вебмастер. Через некоторое время накопленная статистика позволит более тонко оптимизировать ресурс (примерно через месяц). Как регистрироваться — рассказывать не буду, разберетесь сами. Упомяну лишь, что необходим аккаунт на Яндекс (если почта там у Вас есть, значит есть и аккаунт). Еще потребуется подтвердить права собственности на Ваш сайт в процессе регистрации. Действо элементарное, но необходимо подключение к серверу по протоколу ftp для загрузки в «корень» сайта проверочных файлов Яндекс и Гугл.

Помимо этого — рекомендовал бы подключить Яндекс. Метрику, а также установить счетчики liveinternet, Rambler, Mail. Ru. Всё это пригодится в дальнейшем.

Регистрация в вышеназванных сервисах стоит первым пунктом, поскольку сбор статистических данных требует значительного времени. Чем раньше запустить процесс — тем лучше: «Солдат спит — служба идет».

Подключение системы ЧПУ (человеко-понятные урл-ы)

Все ПС давно научились понимать русский язык (в транслите, конечно). И «правильные» url — играют некоторую роль в ранжировании страниц (это — факт). Например:
http://reklama-no.ru/sozdanie-saytov/etapy-razrabotki-sayta
Для ПС (в переводе) страница будет звучать как: «создание сайтов/этапы разработки сайта». В url, таким образом, присутствуют 2-а ключевых запроса, что не останется незамеченным. Поэтому, весьма желательно, чтобы url имели не только «человеко-понятный» вид, но и содержали ключевые слова, соответствующие (конечно) содержанию страницы.

Во всех современных cms есть встроенные системы ЧПУ. Вам нужно их обязательно «включить». Если cms старая, то: стоит поискать в Интернет соответствующий скрипт и установить его. Для наиболее популярных cms — таких скриптов достаточно много. Если не сможете установить/настроить/включить сами — попросите кого-нибудь (нас, например), процесс несложный, но некоторых навыков требует.

Не забываем переименовывать файл htaccess.txt в .htaccess. И не добавляйте к url никаких суффиксов (типа .html).

Оптимизация файла robots.txt

Что такое robots.txt, зачем и почему — Вам расскажет справочник Яндекс (по ссылке). Нас же интересует практическое применение в конкретном приложении.

Для каждого сайта необходимо прописать свой собственный/уникальный файл robots.txt т. к. — каждый сайт уникален и неповторим. Файлик должен находиться в корне Вашего сайта, доставить его туда необходимо по протоколу ftp с помощью программы — файлового менеджера (например, Total Commander, по ссылке можно скачать программу и почитать о правилах пользования). Без этой программы нам никак не обойтись, увы. Так что — качайте и устанавливайте в обязательном порядке, ничего премудрого в этом нет. Постарайтесь найти/установить самую старую версию программы, она более простая в настройках и работает «шустрее».

Сам файл robots.txt редактируем/сохраняем в стандартном Блокноте от Windows.

Будем надеяться, что с программами Вы разберетесь, иначе не стоит читать далее.

Основная задача robots.txt — «отсечь всё лишнее»: заблокировать для ПС доступ к определенным страницам сайта, файлам и папкам. «Лишними» считаем нерелевантные страницы, страницы-дубликаты, «мусорные» url-ы, иные ненужные для индексации материалы. Некоторые общие рекомендации можно обозначить. Например. Ниже — содержимое robots.txt для одного из сайтов (cms Джумла!)

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /cli/
Disallow: /component/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
Disallow: /logs/
Disallow: /tmp/
Disallow: /index
Disallow: /ssylki
Disallow: /?
Disallow: /*?
Disallow: /*poisk-po-sajtu
Disallow: /*kontakt
Disallow: /*avtorizatsiya
Disallow: /*index
Disallow: /*.mp3$
Disallow: /*.doc$
Disallow: /*.xls$
Disallow: /*.pdf$
Disallow: /*.pptx$
Disallow: /*.zip$
Disallow: /*.rar$
Disallow: /*.swf$
Disallow: /*.htm$
Disallow: /*.html$
Allow: /
Host: reklama-no.ru
Sitemap: Sitemap.xml

Зеленым цветом обозначены «закрытые» для ПС папки конкретной cms по-умолчанию. Для каждой cms они разные, и (как правило) изначально прописаны в robots.txt еще в процессе инсталляции движка сайта на сервере.

Фиолетовым цветом обозначены нерелевантные страницы, дубликаты страниц, «мусор». А именно. index почти всегда индексируется поисковиками как Главная страница сайта: http://reklama-no.ru/index, а это, «де-факто» — дубликат реальной Главной: http://reklama-no.ru/. Кроме этого, index часто присутствует в url различных страниц. А это нам абсолютно не нужно (если Вы правильно настроили ЧПУ).

Кроме этого, от индексации следует «закрыть» страницы: контактная информация, каталог ссылок (если есть), поиск по сайту, опросы и результаты опросов, страницы с личными данными пользователей, страницы регистрации и авторизации, другие подобные (служебные) страницы.

Если (опять-таки) ЧПУ настроено верно, то в url сайта не должно быть ?, который всегда присутствует в url страниц сайта с «выключенной» системой ЧПУ.

Синим цветом отмечены файлы различных расширений, что абсолютно не нужны в индексе. Если в настройках ЧПУ Вы «выключили» разрешение страниц .html, то и это расширение стоит упомянуть в «роботсе»: Disallow: /*.html$

Строчка Allow: / разрешает индексацию всего «не запрещенного».

Host: reklama-no.ru определяет главное зеркало сайта. Как правило, определяя с www имя сайта или без www.

Sitemap: Sitemap.xml — указывает поисковым роботам путь к карте сайта.

Определение основных ключевых запросов для вашего сайта

В принципе, с этого надо начинать. По каким ключевым словам необходим заход посетителей сайта? Это одна из важнейших задач. Которую, понятно, должен решить для себя сам владелец сайта. Можно воспользоваться инструментом: Определение частоты запросов в Яндекс. Или ему подобным, их много в Сети. Вообще-то это не совсем верно, но «начерно» — годится. Составьте свой список ключевых запросов для Вашего сайта, проверьте их на частоту спроса и добавьте к ним «что еще люди ищут вместе с…».

Самые важные ключевые слова обязаны: входить в url соответствующих им страниц, в заголовки и title страниц, должны быть усилены тегами strong и em (в разумных пределах) в содержимом страниц, должны являться анкорами ваших ссылок. (Не увлекайтесь в использовании тегов усиления, всё хорошо в меру).

Оптимизация заголовков страниц сайта и title каждой страницы

Что такое title. Заголовок страницы в браузере, невидимый для посетителя, но очень даже видимый для ПС. Это один из наиболее важных факторов для результата поиска. Как именно (технически) прописывается title — определяется конкретной cms сайта, на которой сайт работает. В ряде cms (например, Джумла!) можно прописать на любой странице необходимый Вам title. И это весьма важно. Но: title должен быть правильно составлен для каждой страницы сайта.

  • title обязан содержать ключевой запрос (ключевое слово), который можно повторить не более 2-х раз в одном title;
  • title может состоять из 7–9 слов (больше не индексируется ПС), постарайтесь максимально реализовать эту возможность;
  • в title нежелательно использовать спецсимволы, исключения:  — , ; : | ;
  • Не надо использовать ЗАГЛАВНЫЕ во всем заголовке;
  • title должен быть осмысленной фразой, а не набором ключевых слов.

Но не title единым озаглавливается страница. Есть, конечно, специальные теги заголовков: h1,…,h6. Если Вы пользуетесь встроенным редактором сайта при публикации текста, то заголовки формируются автоматически. При составлении заголовков нужно учитывать некоторые важные особенности:

  • Тег <h1> (заголовок первого уровня) должен быть на странице только ОДИН.
  • Содержимое тега <h1> (желательно) совпадает с title страницы или идентично ему по ключевым запросам.
  • Количество тегов <h2> не должно быть чрезмерным (3–5 на страницу).
  • Тег <h1>,…,<h6> не должен быть ссылкой или содержать ссылку в себе.
  • Категорически нельзя помещать внутрь тегов заголовков теги для акцентирования текста. Например: <h1><strong>Так делать нельзя</strong></h1>. А так делают очень и очень часто.
  • Желательно, чтобы заголовки содержали в себе ключевые слова.
  • Заголовки уровней 3–6 практически не учитываются при ранжировании страниц.
  • Нежелательно использовать в тегах заголовков универсальные атрибуты и события. Можно, но не желательно.

Как считать количество заголовков. Есть сервис, например. Выберите там инструмент Анализ контента и введите url нужной страницы. Инструмент посчитает Вам всё в режиме онлайн.

Чаще всего типовые шаблоны популярных cms не соблюдают рекомендации, указанные выше. Я бы посоветовал — исправить шаблон. Вряд ли это возможно сделать неподготовленному человеку, но… это надо сделать. Чаще всего теги заголовков являются ссылками, заголовки «блоков» как правило нерелевантны, как правило — количество заголовков на странице — огромно. Стоило бы их заменить на безобидные: <span> Этот фактор — не катастрофа, но негативное влияние на оптимизацию, однозначно, оказывает.

Оптимизация контента основных страниц сайта

Понятно, что основным содержимым сайта является контент. Текст, преимущественно. Собственно, именно текст в первую очередь влияет на поисковую выдачу, на позиции сайта при ранжировании. Какие основные требования к содержимому страниц стоит предъявить:

  • Банально, но контент должен быть уникальным. Если уж быть совсем строгим, то можно воспользоваться специальным инструментом для проверки уникальности.
  • Количество знаков на одной странице желательно не менее 3000–5000. Но и слишком большой страницу делать не стоит, единого мнения на максимальный размер страницы нет.
  • На странице должно быть достаточно много нужных ключевых запросов. Но: не слишком. Я бы рекомендовал не более 10-и повторов одного ключевого слова. Каждая страница должна полностью соответствовать запросу, под который она создана. Иначе попасть в ТОП и удержаться в нем не получится.
  • Расположенные ближе к началу страницы ключевые запросы стоит выделить тегами <strong> или <em>. Не переусердствуйте, их стоит использовать не более 5–10 раз на одну страницу (в зависимости от размера страницы).
  • На страницах сайта недопустимы лишние внешние ссылки на любые сторонние ресурсы. А ссылки нужны, конечно. С ними нужно бороться. Либо сделать ссылку непрямой (через редирект), либо закрыть ее от индексаци noindex и nofollow. Обязательно проверяйте все свои основные страницы на предмет «чужих» внешних ссылок (инструмент Анализ контента, например). Во многих шаблонах популярных cms содержатся «подсаженные» при адаптации внешние спам-ссылки. Некоторые счетчики (rambler, mail.ru, hotlog) тоже содержат внешние ссылки, закройте их от индексации noindex и nofollow.
  • Картинки — тоже контент. Обязательный для изображения атрибут alt должен быть ключевым запросом.
  • Желательно «прогнать» текст через Типограф, текст станет более приятным для посетителей (сайт, всё же, для людей должен быть).
  • Проверьте орфографию, грамматические ошибки заметны не только посетителям, но и ПС.

Проверка и оптимизация форматирования страниц

Ограничусь общей рекомендацией: старайтесь сократить количество кода на странице, максимально используйте css (если есть навык).

Проверка валидности html и css кода сайта

Проверки веб-страниц на наличие ошибок и замечаний сводятся, как правило, к проверке на валидность html и css (Проверка HTML, XHTML; Проверка CSS). Непосредственного влияния на ранжирование в ПС этот фактор не влияет (мнения расходятся), но этот фактор влияет на скорость загрузки страниц сайта и их правильное отображение в браузерах. Так что, стоит выполнить проверку и исправить (по возможности) ошибки.

Добавление сайта в основные ПС

Желательно «прогнать» свой сайт через «аддурилки»: добавить его в наиболее распространенные ПС. Их много и некоторый дополнительный трафик они могут принести, хоть и не очень значительный.

Анализ статистики и корректировка robots.txt

Пока Вы проводили работы по оптимизации — Яндекс и Гугл произвели сбор статистики сайта (сроки неизвестны, для нового сайта — до месяца, старый — побыстрее). Для внесения корректив в robots.txt проверьте в Яндекс. Вебмастер вкладку: «Страницы в поиске». Там наверняка много страниц-паразитов (многие cms генерят толпы таких страниц) и страниц-дублеров. Всех их необходимо закрыть от инлексации в robots.txt директивой Disallow: . Понятно, что «закрывать» нужно постараться по маске, а не каждую страницу в отдельности.

Проверьте, какие страницы закрыты от индексации в Яндекс и Гугл, какие страницы «Не найдены» и — почему. Некоторые «не найденные» страницы стоит тоже включить в роботс (дабы ПС не выдавали более 404-ю ошибку).

В Гугл. Вебмастер есть инструмент «Оптимизация HTML». Исправьте отмеченные им ошибки по тегам title и description.

Инструменты Вебмастера — отдельная тема, на этом этапе оптимизации отложим их в сторону.

Подключение блока «Поделиться» от Яндекс

Стоит разместить на сайте блок «Поделиться» от Яндекс. Есть шанс, что на них кто-то покликает. Особого толку от них нет, но некоторый крошечный прирост трафика — возможен.

Интеграция с социальными сетями

Нужна ли эта «интеграция» — целиком зависит от тематики сайта. Если у Вас есть свои группы ВКонтакте, на Однокласниках (и т. п.), то установка разных виджетов от популярных соц.сетей вполне может прибавить к посещаемости. Если группы, конечно, не нулевые.

Оптимизация скорости/эффективности загрузки страниц в браузер

Скорость загрузки страниц имеет важное значение. Понятно, что чем быстрее — тем лучше. ПС сегодня понижают в выдаче сайты, которые долго грузятся. Постарайтесь отключить скрипты, которые серьезно тормозят работу сайта и снижают скорость загрузки веб-страниц.

Составление карты сайта (файл Sitemap.xml) и публикация его на сайте

Карта сайта Sitemap.xml представляет собой страницу, на которой собраны все ссылки на разрешенные в robots.txt страницы веб-ресурса. Помогает роботам ПС быстрее индексировать материалы.

Наращивание ссылочной массы веб-ресурса, ненавязчивый «спам»

Если Вы зарегистрировали свой сайт в Рамблер, hotlog, openstat, то Вы уже получили на свой ресурс несколько первых ссылок. Есть ли от них польза? Иногда. Но — это «капля в море». Вашему ресурсу нужна «авторитетность». Давайте попробуем ее создать, если не получается «само-собой».

Мониторинг поисковых запросов ПС Яндекс и Гугл, внесение корректив

Подключение других сервисов Яндекс

Имеются ввиду разные информеры. Целесообразность их размещения на сайте — на уровне мифологии. Но, если они не мешают и не идут вразрез с дизайном сайта — разместите. Есть (всё же) миф о повышении лояльности ПС при наличии на сайте их «примочек». Откуда-то берутся легенды.

Общие рекомендации по оптимизации ресурса

  • Весьма полезна функция «Хлебные крошки». Стоит «включить», если есть такая возможность.
  • Озаботьтесь внутренней перелинковкой страниц сайта. Достаточно частая перелинковка внутренних страниц сайта понравится Google. Для этого: даем в тексте ссылки на другие страницы сайта, которые продолжают тему, чем добиваемся увеличения глубины просмотра и времени пребывания посетителя на сайте.
  • Уровень вложенности или Глубина просмотра. Уровень вложенности определяется количеством переходов с главной страницы до искомой. Чем их меньше, тем более значимей будет страница в глазах ПС. Поэтому: не поленитесь сделать Карту сайта, с ссылкой на нее с Главной страницы.
  • весьма полезно иметь уникальный favicon.ico

Стоит отметить, что все мои сайты (почти все) прошли этим путем. Можно и оценить полученные результаты. Я ссылок — не покупаю… На тех сайтах, коим досталась «толика внимания», — вполне себе вменяемая посещаемость. Увы, но на всё времени не хватает. Однако… Сделаете лучше? Удачи!

Внутренняя оптимизация сайта длится иногда месяцами. Однако — оно того стоит. Если описанные выше мероприятия Вам не под силу — рекомендую обратиться к сео-оптимизатору. Пусть даже и за деньги, но это сделать абсолютно необходимо, если хотите иметь достойную/стабильную посещаемость.

Продолжение следует… Может быть.