Мне всегда нравится смотреть на SEO с позиции Теории ограничений, знаешь почему?
(А также почему методы которые раньше привлекали трафик, перестали работать)
Совпадает с моими внутренними убеждениями и подтверждается тем, что твориться на рынке создания и продвижения сайтов.
А именно: любые технологические решения или усовершенствования не приводят к результатам или к выгодам в реальности, так как они не решают проблему или не уменьшают её или не обходят реально узкое место.
Как это связано с реальностью и почему бизнес теряет деньги?
Потому, что:
- создатели сайтов делают их в первую очередь такими чтобы заказчику нравилось. Подписал акты и пошёл на фиг. Переделывать и исправлять? Да! За отдельные деньги…
- а люди продвигающие сайты, используют быстрые и не всегда безопасные методы — главное показать результат сразу, а потом всё свалить на поисковики — это они негодяи изменили алгоритмы… Ой как сложно, нужно ждать.. купить ещё ссылок и накрутить поведенческие факторы.
Почему так происходит?
Потому, что 99% компаний исполнителей по созданию сайтов или SEO стараются сэкономить всеми возможными и невозможными способами.
Как экономят на создании сайтов?
- Дизайн делают на бесплатном шаблоне или без анализа конкурентов и учёта предпочтений потребителей.
- Техническую часть делают откровенно кое-как чтобы было подешевле.
- Тексты для сайтов пишут копирайтеры не вникая в то, что должно быть на странице для того чтобы трафик потом перешёл в заказы.
А потом ещё этот сайт нужно продвигать.
И вот тут начинаются проблемы…
Разберём на примере контента на сайтах.
Как правило в процессе создания контента для сайтов копирайтеры не сильно вникают в проект, а просто создают простыни их текстов на десятки тысяч знаков.
И если заказчик это не контролирует, то вообще беда…
Так и сейчас делают и раньше делали.
А поисковые системы с этим борются.
Как борются?
Накладывают санкции за манипуляции с сайтами.
Расскажу на примере санкций от Яндекса за неправильно подготовленные для сайта тексты.
1. С 2010 года наказывают за переспам ключевыми словами.
Заспамленность текста – это отношение вхождения повторяющихся слов к общему объему символов в документе.
Как понять, что на сайте явно переспам?
В переспамленых статьях большое количество повторяющихся ключевых фраз и неестественные речевые обороты.
Что нужно чтобы снять фильтр за переспам?
- уменьшить число вхождений продвигаемых ключевых фраз на странице;
- сократить объём текста;
- красиво и качественно форматировать текст, добавив него изображения, списки перечисления, таблицы, схемы, видео;
- убрать внешние ссылки с явно прямым вхождением фраз
2. Переоптимизация, действует с 2011 года.
Применяется к сайту целиком за большое количество переоптимизированных текстов.
Как понять, что он на сайте?
Позиции сайта упали на 5-25 пунктов у групп продвигаемых запросов, которые были вписаны в конкретные страницы.
Просто смотрим какие страницы выпали из поиска и не получают трафик и сразу всё понятно.
Что нужно чтобы снять фильтр Переоптимизация?
- внимательно изучаем ТОП по важным для бизнеса запросам и учитывая то как у конкурентов делаем как у них в среднем;
- делаем рерайт текста с обязательной проверкой орфографии и пунктуации;
- убираем или уменьшаем количество выделений тегами B и STRONG;
- разбиваем тексты на смысловые блоки;
- добавляем в текст картинки, схемы, фотки, таблицы.
3. Баден-Баден.
Официально функционирует с 23 марта 2017 года — это доработанный Яндексом вариант первых двух фильтров.
Почему сайты его получали?
- заспамленность текста ключевыми словами;
- ориентация текста на поисковую машину, а не на посетителя — потребителя;
- очень много вводных и деепричастных оборотов и мало смысла в текстах;
- на сайте скрытые частично или полностью тексты от посетителя.
Что нужно чтобы снять фильтр Баден-Баден?
- — переписать тексты убрав их них злоупотребления ключевыми словами и проч словосочетания вписанные для количества;
- — убрать всю воду из текста и повысить его информативность;
- — использовать только уникальную и полезную информацию.
4. Ты последний
Этот фильтр получали за бесполезный и неинформативный контент.
Страница продвигаемого сайта тупо перемещалась на последнее место результата поиска.
А у Google есть санкции?
Там тоже полным полно всего, например…
Панда. За тексты и вообще контент.
Чтобы не попасть под него нужно
- создавать уникальный и полезный для людей контент;
- нельзя забывать о юзабилити сайта.
Пингвин. Наказывает за плохие ссылки.
Характерен падением трафика и снимается за счёт полного убирания всех ссылок на сайт.
А ещё поисковики могут наказать за например:
- Искусственные ссылки.
- Спам в комментариях.
- Избыточное вхождение ключевых запросов и скрытый текст.
- Агрессивный текстовый спам.
- Отсутствие мобильной версии.
- Медленную работу сайта.
- Битые ссылки.
- Дополнительный индекс.
- Сайт может в конце концов просто быть в песочнице.
Песочница это фильтр по возрасту домена. За счёт него не дают занять ТОП молодым сайтам.
И даже если делать всё правильно… какое-то время большого объёма трафика и позиций особенно по самым конкурентным фразам ждать не стоит. Но если подумать… обойти можно ☺
Что делать?
Делать по уму, делать правильно!
И конечно не попасть под фильтры и не быть наказанными поисковыми системами!
Ведь легче под фильтры не попадать, чем потом выводить сайты из-под него.
Как правило, это кропотливая работа, которая занимает не менее 2-4 месяцев. Бывает даже так, что проще с 0 сделать всё заново.
#SEO #ЛазутинпроSEO #маркетинг
seohead.pro