SEO Лазутина: Упор на Статистику, Данные и Data Science
Несколько дней я не писал постов, потому что не хотелось. Тут одним предложением или абзацем не ответить на вопрос почему…
Простите, дальше будет много букв.
- С одной стороны — заказчики, которые хотят, чтобы за них решили все проблемы, буквально думали за них.
- С другой стороны — исполнители, которые не хотят работать, хотят прогулки, сериалы, алкоголь, развлекаться забавными роликами до одурения.
В результате мы имеем ситуацию:
- Бизнес начинает работать с профи/экспертами в области маркетинга, которые на самом деле таковыми не являются.
- Специалисты начинают работать с компаниями, которые не готовы к сотрудничеству.
Одни слушают псевдонаучную болтовню, а другие делают вид, что понимают, о чем речь.
Что же меня бесит?
Алексей, мы хотим больше трафика на сайт!
У вас плохой контент.
Мы не хотим писать хороший контент.
У вас плохие фотографии товаров.
Мы не хотим делать хорошие фотографии.
Алексей, мы хотим больше лидов из Google!
Гуглу не нравится ваш плохой контент.
Наверное, ты плохо работаешь. Давай соберись… Вон у Михала Михалыча из компании Вафли и Труселя…
А тут еще приходят «маркетологи» с бесплатными SEO-аудитами и текстами, написанными нейронками, и накрутками ПФ. РУКАЛИЦО.
Уважаемые заказчики, не нужно пытаться обмануть систему.
Вы на самом деле обманываете только себя. А почему?
- Бесплатный аудит делает бестолковый специалист, который ничего не умеет.
Он выполняет 20 штук таких аудитов в день и пытается продавать после каждого услуги. А ведь услуги ещё нужно уметь делать…
В результате вам втюхали красивую, но бесполезную PDF, а потом услуги, которые не умеют выполнять, но умеют продавать. - Хороший контент, написанный нейронкой, требует подготовки, осмысленности действий и понимания предмета.
Вы внимательно почитайте ту туфту, которую вам продали под видом качественного контента. Там будет огромное количество воды и пустых оборотов…
Но не будет полезных и нужных для бизнеса ключевых слов. - Накрутка ПФ — окей, с вами согласовали список запросов, окей, вам эти запросы крутят, и вы видите, как в статистике посещаемости появляются переходы по этим фразам.
Вот только странная ситуация — переходы есть, а лидов нет… А почему? Потому что переходят не люди, а боты =)
Тут же не нужно ничего дальше пояснять, правда?
Попытка обмануть поисковую систему или потребителя так же смешна и нелепа, как попытка обменять фантики от конфет на денежные знаки в банке.
Вы всё ещё думаете, что это сработает? Я знаю, что нет.
Почему это путь в никуда? Потому, что вы пытаетесь сделать круглое квадратным, а оно мягкое как слайм и растекается.
Что делать?
Весь маркетинг можно исследовать, изучить и понять, как сделать лучше. И в SEO тоже…
Пример 1 — Исследование метаданных на страницах конкурентов
Предположим, вы маркетолог или владелец бизнеса по продаже товаров или услуг и хотите получить на свой сайт больше поискового трафика.
Что нужно сделать?
Допустим, вы продаёте металлочерепицу (тут может быть любой товар или услуга).
Я сначала получаю список конкурентов по товарам группы металлочерепица:
- https://spb.grandline.ru/katalog/krovlya/metallocherepitsa/
- https://stynergy.ru/metallocherepitsa/
- https://www.profkomplekt.ru/catalog/metallocherepica/
А затем собираю данные по страницам конкурентов в виде таблицы:
- URL
- Title
- H1
- Description
И теперь мы можем сравнить данные своей страницы со страницами конкурентов.
И сразу будут видны точки роста…
Я написал парсер на Python для извлечения данных с веб-страниц, таких как заголовок, тег H1 и мета-описание, и сохранения их в CSV-файл. BeautifulSoup для парсинга HTML-контента. Selenium для автоматизации браузера и извлечения данных с динамически загружаемых страниц.
Уверен, что если мы с клиентом оптимизируем страницы так, чтобы они были не хуже, чем у конкурентов, то продвигаемый сайт получит отличные позиции в поисковой выдаче.
Пример 2 — Исследование данных посещаемости сайта
Близится сезон продаж, и вполне логично, что нужно подготовить свой сайт.
Что я предлагаю сделать?
1. Идём в панель веб-мастера Яндекса, выбираем свой сайт. Затем переходим в отчёты «Эффективность» / «Статистика страниц».
Получаем данные о тех поисковых страницах, которые имеют большое количество показов в выдаче, но при этом по ним очень редко кликают.
2. Идём в панель веб-мастера Google, снова выбираем свой сайт. Переходим в раздел «Эффективность» / «Страницы».
Снова получаем данные о тех страницах, которые имеют большое количество показов в выдаче, но при этом по ним очень редко кликают.
Дальше собранные данные мы можем оценить по следующим признакам…
- Низкий CTR при высоких показах:
Критерий: CTR менее 2% при показах более 1000.
Рекомендация: улучшить заголовки и описания для повышения кликабельности. - Высокие показы, но низкие клики:
Критерий: показы более 1000, но клики менее 100.
Рекомендация: оптимизировать контент и мета-теги для лучшего привлечения пользователей. - Низкая средняя позиция:
Критерий: средняя позиция более 20.
Рекомендация: улучшить SEO для повышения видимости в результатах поиска. - Высокие позиции (1-3):
Критерий: CTR менее 2% для Google и менее 2.5% для Яндекса.
Рекомендация: улучшить сниппет для повышения CTR. - Первая страница (4-10):
Критерий: CTR менее 1% для Google и менее 1.5% для Яндекса.
Рекомендация: проверить и улучшить релевантность сниппета. - Вторая страница и ниже (>10):
Критерий: высокий трафик (более 100 кликов для Google, более 50 для Яндекса).
Рекомендация: работать над SEO-оптимизацией для повышения позиций и увеличения трафика.
На самом деле параметры могут быть любыми =) у меня сейчас так.
Затем я формирую вот такую таблицу:
Сначала я сделал скрипт на Python, который объединил данные из обеих поисковых систем в одну таблицу и проставил каждой странице оценку согласно описанным выше признакам.
Визуализация o_O
Безусловно мы можем визуализировать данные всеми возможными способами или теми которые мы захотим =) Кто ж запретит то когда понимаешь что и как сделать.
Для графиков ниже я использовал библиотеки Python:
- для работы с данными pandas,
- для визуализации данных matplotlib, seaborn, и plotly.
Столбчатая диаграмма топ-рекомендаций — показывает самые распространенные рекомендации, что помогает определить основные области для улучшения.
Точечная диаграмма CTR vs Позиция — визуализирует взаимосвязь между позицией страницы в поиске и кликабельностью, с размером точек, отражающим количество показов.
Гистограмма распределения позиций — показывает, как распределены страницы по позициям в Google и Yandex.
Тепловая карта корреляций — выявляет взаимосвязи между основными метриками SEO.
Интерактивный график анализа CTR — позволяет исследовать зависимость CTR от позиции с подробными данными при наведении курсора.
Тепловая карта рекомендаций по источникам — показывает, как распределяются типы рекомендаций между Google и Yandex.
Сравнение эффективности по источникам — набор столбчатых диаграмм, сравнивающих средние значения кликов, показов и CTR между Google и Yandex.
Воронка эффективности — показывает конверсию от показов к кликам по каждому источнику.
Radar chart (лепестковая диаграмма) — комплексное сравнение источников по нескольким ключевым метрикам.
Занимаясь SEO на основе данных мы можем и будем работать над сайтом и улучшать его… а не крутить ПФ и убивать статистику ботами или заказывать такие тексты от которых посетителей будет тошнить.
Хочешь правильное SEO? Пиши мне!
Или и дальше получай аудиты от тех кто ничего не понимает в SEO, заказывай накрутку ПФ, тексты от нейронок и красивые отчёты в PDF
seohead.pro