Мне всегда нравится смотреть на SEO с позиции Теории ограничений, знаешь почему?

автор

статья от

Алексей Лазутин

Специалист по поисковому маркетингу

(А также почему методы которые раньше привлекали трафик, перестали работать)

Совпадает с моими внутренними убеждениями и подтверждается тем, что твориться на рынке создания и продвижения сайтов.

А именно: любые технологические решения или усовершенствования не приводят к результатам или к выгодам в реальности, так как они не решают проблему или не уменьшают её или не обходят реально узкое место.

Как это связано с реальностью и почему бизнес теряет деньги?

Потому, что:

  • создатели сайтов делают их в первую очередь такими чтобы заказчику нравилось. Подписал акты и пошёл на фиг. Переделывать и исправлять? Да! За отдельные деньги…
  • а люди продвигающие сайты, используют быстрые и не всегда безопасные методы — главное показать результат сразу, а потом всё свалить на поисковики — это они негодяи изменили алгоритмы… Ой как сложно, нужно ждать.. купить ещё ссылок и накрутить поведенческие факторы.

Почему так происходит?
Потому, что 99% компаний исполнителей по созданию сайтов или SEO стараются сэкономить всеми возможными и невозможными способами.

Как экономят на создании сайтов?

  1. Дизайн делают на бесплатном шаблоне или без анализа конкурентов и учёта предпочтений потребителей.
  2. Техническую часть делают откровенно кое-как чтобы было подешевле.
  3. Тексты для сайтов пишут копирайтеры не вникая в то, что должно быть на странице для того чтобы трафик потом перешёл в заказы.

А потом ещё этот сайт нужно продвигать.
И вот тут начинаются проблемы…

Разберём на примере контента на сайтах.

Как правило в процессе создания контента для сайтов копирайтеры не сильно вникают в проект, а просто создают простыни их текстов на десятки тысяч знаков.

И если заказчик это не контролирует, то вообще беда…

Так и сейчас делают и раньше делали.
А поисковые системы с этим борются.

Как борются?
Накладывают санкции за манипуляции с сайтами.

Расскажу на примере санкций от Яндекса за неправильно подготовленные для сайта тексты.

1. С 2010 года наказывают за переспам ключевыми словами.
Заспамленность текста – это отношение вхождения повторяющихся слов к общему объему символов в документе.

Как понять, что на сайте явно переспам?
В переспамленых статьях большое количество повторяющихся ключевых фраз и неестественные речевые обороты.

Что нужно чтобы снять фильтр за переспам?

  • уменьшить число вхождений продвигаемых ключевых фраз на странице;
  • сократить объём текста;
  • красиво и качественно форматировать текст, добавив него изображения, списки перечисления, таблицы, схемы, видео;
  • убрать внешние ссылки с явно прямым вхождением фраз

2. Переоптимизация, действует с 2011 года.
Применяется к сайту целиком за большое количество переоптимизированных текстов.

Как понять, что он на сайте?
Позиции сайта упали на 5-25 пунктов у групп продвигаемых запросов, которые были вписаны в конкретные страницы.

Просто смотрим какие страницы выпали из поиска и не получают трафик и сразу всё понятно.

Что нужно чтобы снять фильтр Переоптимизация?

  • внимательно изучаем ТОП по важным для бизнеса запросам и учитывая то как у конкурентов делаем как у них в среднем;
  • делаем рерайт текста с обязательной проверкой орфографии и пунктуации;
  • убираем или уменьшаем количество выделений тегами B и STRONG;
  • разбиваем тексты на смысловые блоки;
  • добавляем в текст картинки, схемы, фотки, таблицы.

3. Баден-Баден.
Официально функционирует с 23 марта 2017 года — это доработанный Яндексом вариант первых двух фильтров.

Почему сайты его получали?

  • заспамленность текста ключевыми словами;
  • ориентация текста на поисковую машину, а не на посетителя — потребителя;
  • очень много вводных и деепричастных оборотов и мало смысла в текстах;
  • на сайте скрытые частично или полностью тексты от посетителя.

Что нужно чтобы снять фильтр Баден-Баден?

  • — переписать тексты убрав их них злоупотребления ключевыми словами и проч словосочетания вписанные для количества;
  • — убрать всю воду из текста и повысить его информативность;
  • — использовать только уникальную и полезную информацию.

4. Ты последний
Этот фильтр получали за бесполезный и неинформативный контент.

Страница продвигаемого сайта тупо перемещалась на последнее место результата поиска.

А у Google есть санкции?
Там тоже полным полно всего, например…

Панда. За тексты и вообще контент.

Чтобы не попасть под него нужно

  • создавать уникальный и полезный для людей контент;
  • нельзя забывать о юзабилити сайта.

Пингвин. Наказывает за плохие ссылки.
Характерен падением трафика и снимается за счёт полного убирания всех ссылок на сайт.

А ещё поисковики могут наказать за например:

  • Искусственные ссылки.
  • Спам в комментариях.
  • Избыточное вхождение ключевых запросов и скрытый текст.
  • Агрессивный текстовый спам.
  • Отсутствие мобильной версии.
  • Медленную работу сайта.
  • Битые ссылки.
  • Дополнительный индекс.
  • Сайт может в конце концов просто быть в песочнице.

Песочница это фильтр по возрасту домена. За счёт него не дают занять ТОП молодым сайтам.

И даже если делать всё правильно… какое-то время большого объёма трафика и позиций особенно по самым конкурентным фразам ждать не стоит. Но если подумать… обойти можно ☺

Что делать?
Делать по уму, делать правильно!

И конечно не попасть под фильтры и не быть наказанными поисковыми системами!

Ведь легче под фильтры не попадать, чем потом выводить сайты из-под него.

Как правило, это кропотливая работа, которая занимает не менее 2-4 месяцев. Бывает даже так, что проще с 0 сделать всё заново.

#SEO #ЛазутинпроSEO #маркетинг

seohead.pro