SEO Лазутина: Упор на Статистику, Данные и Data Science

автор

статья от

Алексей Лазутин

Специалист по поисковому маркетингу

Несколько дней я не писал постов, потому что не хотелось. Тут одним предложением или абзацем не ответить на вопрос почему…

Простите, дальше будет много букв.

  • С одной стороны — заказчики, которые хотят, чтобы за них решили все проблемы, буквально думали за них.
  • С другой стороны — исполнители, которые не хотят работать, хотят прогулки, сериалы, алкоголь, развлекаться забавными роликами до одурения.

В результате мы имеем ситуацию:

  • Бизнес начинает работать с профи/экспертами в области маркетинга, которые на самом деле таковыми не являются.
  • Специалисты начинают работать с компаниями, которые не готовы к сотрудничеству.

Одни слушают псевдонаучную болтовню, а другие делают вид, что понимают, о чем речь.

Что же меня бесит?

Алексей, мы хотим больше трафика на сайт!

У вас плохой контент.
Мы не хотим писать хороший контент.
У вас плохие фотографии товаров.
Мы не хотим делать хорошие фотографии.

Алексей, мы хотим больше лидов из Google!

Гуглу не нравится ваш плохой контент.

Наверное, ты плохо работаешь. Давай соберись… Вон у Михала Михалыча из компании Вафли и Труселя…

А тут еще приходят «маркетологи» с бесплатными SEO-аудитами и текстами, написанными нейронками, и накрутками ПФ. РУКАЛИЦО.

Уважаемые заказчики, не нужно пытаться обмануть систему.

Вы на самом деле обманываете только себя. А почему?

  1. Бесплатный аудит делает бестолковый специалист, который ничего не умеет.
    Он выполняет 20 штук таких аудитов в день и пытается продавать после каждого услуги. А ведь услуги ещё нужно уметь делать…
    В результате вам втюхали красивую, но бесполезную PDF, а потом услуги, которые не умеют выполнять, но умеют продавать.
  2. Хороший контент, написанный нейронкой, требует подготовки, осмысленности действий и понимания предмета.
    Вы внимательно почитайте ту туфту, которую вам продали под видом качественного контента. Там будет огромное количество воды и пустых оборотов…
    Но не будет полезных и нужных для бизнеса ключевых слов.
  3. Накрутка ПФ — окей, с вами согласовали список запросов, окей, вам эти запросы крутят, и вы видите, как в статистике посещаемости появляются переходы по этим фразам.
    Вот только странная ситуация — переходы есть, а лидов нет… А почему? Потому что переходят не люди, а боты =)
    Тут же не нужно ничего дальше пояснять, правда?

Попытка обмануть поисковую систему или потребителя так же смешна и нелепа, как попытка обменять фантики от конфет на денежные знаки в банке.

Вы всё ещё думаете, что это сработает? Я знаю, что нет.

Почему это путь в никуда? Потому, что вы пытаетесь сделать круглое квадратным, а оно мягкое как слайм и растекается.

Что делать?
Весь маркетинг можно исследовать, изучить и понять, как сделать лучше. И в SEO тоже…

Пример 1 — Исследование метаданных на страницах конкурентов

Предположим, вы маркетолог или владелец бизнеса по продаже товаров или услуг и хотите получить на свой сайт больше поискового трафика.

Что нужно сделать?
Допустим, вы продаёте металлочерепицу (тут может быть любой товар или услуга).

Я сначала получаю список конкурентов по товарам группы металлочерепица:

  • https://spb.grandline.ru/katalog/krovlya/metallocherepitsa/
  • https://stynergy.ru/metallocherepitsa/
  • https://www.profkomplekt.ru/catalog/metallocherepica/

А затем собираю данные по страницам конкурентов в виде таблицы:

  • URL
  • Title
  • H1
  • Description

И теперь мы можем сравнить данные своей страницы со страницами конкурентов.

И сразу будут видны точки роста…

Я написал парсер на Python для извлечения данных с веб-страниц, таких как заголовок, тег H1 и мета-описание, и сохранения их в CSV-файл. BeautifulSoup для парсинга HTML-контента. Selenium для автоматизации браузера и извлечения данных с динамически загружаемых страниц.

Уверен, что если мы с клиентом оптимизируем страницы так, чтобы они были не хуже, чем у конкурентов, то продвигаемый сайт получит отличные позиции в поисковой выдаче.

Пример 2 — Исследование данных посещаемости сайта

Близится сезон продаж, и вполне логично, что нужно подготовить свой сайт.

Что я предлагаю сделать?

1. Идём в панель веб-мастера Яндекса, выбираем свой сайт. Затем переходим в отчёты «Эффективность» / «Статистика страниц».

Получаем данные о тех поисковых страницах, которые имеют большое количество показов в выдаче, но при этом по ним очень редко кликают.

2. Идём в панель веб-мастера Google, снова выбираем свой сайт. Переходим в раздел «Эффективность» / «Страницы».

Снова получаем данные о тех страницах, которые имеют большое количество показов в выдаче, но при этом по ним очень редко кликают.

Дальше собранные данные мы можем оценить по следующим признакам…

  1. Низкий CTR при высоких показах:
    Критерий: CTR менее 2% при показах более 1000.
    Рекомендация: улучшить заголовки и описания для повышения кликабельности.
  2. Высокие показы, но низкие клики:
    Критерий: показы более 1000, но клики менее 100.
    Рекомендация: оптимизировать контент и мета-теги для лучшего привлечения пользователей.
  3. Низкая средняя позиция:
    Критерий: средняя позиция более 20.
    Рекомендация: улучшить SEO для повышения видимости в результатах поиска.
  4. Высокие позиции (1-3):
    Критерий: CTR менее 2% для Google и менее 2.5% для Яндекса.
    Рекомендация: улучшить сниппет для повышения CTR.
  5. Первая страница (4-10):
    Критерий: CTR менее 1% для Google и менее 1.5% для Яндекса.
    Рекомендация: проверить и улучшить релевантность сниппета.
  6. Вторая страница и ниже (>10):
    Критерий: высокий трафик (более 100 кликов для Google, более 50 для Яндекса).
    Рекомендация: работать над SEO-оптимизацией для повышения позиций и увеличения трафика.

На самом деле параметры могут быть любыми =) у меня сейчас так.

Затем я формирую вот такую таблицу:

Сначала я сделал скрипт на Python, который объединил данные из обеих поисковых систем в одну таблицу и проставил каждой странице оценку согласно описанным выше признакам.

Визуализация o_O

Безусловно мы можем визуализировать данные всеми возможными способами или теми которые мы захотим =) Кто ж запретит то когда понимаешь что и как сделать.

Для графиков ниже я использовал библиотеки Python:

  • для работы с данными pandas,
  • для визуализации данных matplotlib, seaborn, и plotly.

Столбчатая диаграмма топ-рекомендаций — показывает самые распространенные рекомендации, что помогает определить основные области для улучшения.

Точечная диаграмма CTR vs Позиция — визуализирует взаимосвязь между позицией страницы в поиске и кликабельностью, с размером точек, отражающим количество показов.

Гистограмма распределения позиций — показывает, как распределены страницы по позициям в Google и Yandex.

Тепловая карта корреляций — выявляет взаимосвязи между основными метриками SEO.

Интерактивный график анализа CTR — позволяет исследовать зависимость CTR от позиции с подробными данными при наведении курсора.

Тепловая карта рекомендаций по источникам — показывает, как распределяются типы рекомендаций между Google и Yandex.

Сравнение эффективности по источникам — набор столбчатых диаграмм, сравнивающих средние значения кликов, показов и CTR между Google и Yandex.

Воронка эффективности — показывает конверсию от показов к кликам по каждому источнику.

Radar chart (лепестковая диаграмма) — комплексное сравнение источников по нескольким ключевым метрикам.

Занимаясь SEO на основе данных мы можем и будем работать над сайтом и улучшать его… а не крутить ПФ и убивать статистику ботами или заказывать такие тексты от которых посетителей будет тошнить.

Хочешь правильное SEO? Пиши мне!

Или и дальше получай аудиты от тех кто ничего не понимает в SEO, заказывай накрутку ПФ, тексты от нейронок и красивые отчёты в PDF

seohead.pro