Что делать, если конкуренты искусственно ухудшают поведенческие факторы моего сайта?

Здравствуйте. После редизайна сайта и доработки коммерческих страниц я заметил резкий рост подозрительных прямых визитов и увеличившееся число переходов из поисковых систем по коммерческим запросам, при этом время сеанса у многих пользователей составляет менее 15 секунд. Какие шаги вы порекомендуете предпринять для анализа и устранения этой аномалии?
  • 18 февраля 2026 г. 21:01
Ответы на вопрос 4
Коротко: сначала — подтвердить, что это не артефакт настройки аналитики или легитимный трафик (мониторы, боты поиска и т.п.), затем — собрать доказательства (логи, сессии, паттерны), временно блокировать / замедлить подозрительный трафик и настроить долгосрочную защиту и мониторинг. Ниже — пошаговый план с конкретными проверками и мерами.

1) Быстрая проверка — исключаем ошибку учёта
- Проверьте, не сломался ли счётчик/контейнер (двойной gtag/GTM, дублирование событий). Сравните данные из двух независимых систем (Analytics и серверные логи).
- Посмотрите, не добавились ли UTM/рефереры/параметры, которые «переводят» трафик в direct.
- Убедитесь, что это не внутренняя автоматизация (CI, мониторинги Pingdom/UptimeRobot, боты SEO-инструментов, тесты сотрудников).

2) Сбор и анализ данных
- В аналитике (GA4/UA): создайте сегмент «сессии < 15 с» и изучите:
  - источники/каналы, landing pages, город/страна, язык, браузер, ОС, разрешение экрана, время суток, количество визитов с одного clientId.
- В серверных логах (access.log): найдите наиболее активные IP и user-agent:
  - примеры команд:
    - IP: awk '{print $1}' access.log | sort | uniq -c | sort -nr | head
    - UA: awk -F\" '{print $6}' access.log | sort | uniq -c | sort -nr | head
    - По URL: grep "GET /путь" access.log | awk '{print $1}' | sort | uniq -c | sort -nr | head
- Ищите паттерны: многочисленные визиты с одинаковых IP/диапазонов; пустые/странные user-agent; одна и та же последовательность URL; короткие интервалы между запросами; одинаковые Accept-Language/рефереры.
- Проверьте Search Console: какие запросы показываются, совпадают ли они с «коммерческими» запросами из аналитики; откуда приходят показы/клики.
- Используйте инструменты записи сессий/тепловые карты (Hotjar, FullStory) для выборочных сессий — реально ли пользователь взаимодействовал или это бот.

3) Быстрая временная защита (если трафик мешает)
- Ограничьте скорость/частоту запросов (rate limiting) на уровне CDN / WAF (Cloudflare, Sucuri, AWS WAF).
- Заблокируйте явно подозрительные IP/диапазоны через firewall/iptables или на CDN.
- Включите Challenge/JavaScript challenge (Cloudflare “I'm under attack” / Challenge) для подозрительных гео или UA.
- Введитe простую проверку для критичных страниц: reCAPTCHA/hCaptcha или требование выполнения JS (отсекает простых ботов).
- Настройте Honeypot URL (чёрный путь): если бот обращается туда — автоматически блокируйте.

4) Долгосрочные меры защиты
- Подключите/усильте CDN/WAF с бот-менеджером (Cloudflare Bot Management, PerimeterX, Distil и т.п.).
- Настройте fail2ban/nginx rate-limit/ModSecurity правила по подозрительным паттернам.
- Используйте server-side логирование и ETL (Elasticsearch/Graylog/GoAccess) для постоянного мониторинга аномалий.
- В Analytics: включите фильтрацию «известных ботов и пауков», добавьте фильтры по hostname, исключите внутренние хосты.
- Если используете рекламу — включите защиту от кликового мошенничества у рекламной платформы.

5) Что делать с данными и SEO
- Не паниковать: поисковые алгоритмы учитывают много сигналов и имеют механизмы фильтрации. Но улучшайте UX и коммерческие страницы — это лучший контрприём.
- Исключите подозрительный трафик из аналитики (создайте фильтры/сегменты) перед принятием управленческих решений.
- Отслеживайте корреляцию: уменьшилось ли поведение сессий и конверсии — возможно, конкуренты целились в рекламные кампании.

6) Юридические / контактные шаги
- Соберите доказательства: логи, timestamps, списки IP, image-файлы user-agent, скриншоты.
- При серьёзной атаке — отправьте abuse-отчёты на провайдеры IP-адресов, хостерам, используйте форму жалобы Google (если это фрод в AdSense/Ads).
- При необходимости — проконсультируйтесь с юристом по цифровому праву.

7) Мониторинг и контроль эффективности
- Настройте алерты (CPU, трафик, spikes в прямых визитах, трафик из одной страны) в Grafana/Datadog/Cloudflare.
- Периодически проверяйте сегменты «подозрительные» и эффект от заблокированных IP/правил.
- Ведите журнал действий и изменений (что сделали, когда, с какими эффектами).

Полезные инструменты и команды
- Cloudflare/WAF, Fail2ban, iptables, ModSecurity
- Логи: GoAccess, Elastic Stack, AWStats
- Аналитика: GA4/UA (сегменты, фильтры), Search Console
- Сессии: Hotjar/FullStory
- Простые grep/awk для анализа access.log (см. примеры выше)

Если хотите, могу:
- посмотреть список характерных user-agent / IP-диапазонов (если вы пришлёте пример логов);
- дать готовые правила nginx/iptables/Cloudflare для блокировки;
- помочь настроить сегменты в GA4/UA и правила фильтрации.

Скажите, какие данные у вас есть: серверные логи, примеры user-agent/IP, скриншоты из Analytics — и я помогу с конкретным разбором и правилами блокировки.
Поставить waf от ботов ну или там ту же Яндекс капчу прикрутить от них
Это не конкуренты, и ничего они вам не крутят. Это обычный нагул пользовательских профилей для дальнейших накруток. Задача - "настукать" историю ботному профилю, получить куку, показаться Яндексу и т.п. <br/> Ничего хорошего сайту от их визитов нет, но и критически плохого - тоже. <br/> Что можно сделать: <br/> а) Используйте файерволл. Сейчас с CF проблема, РКН с ним воюет, а он эту проблему решал очень просто. <br/> б) Не отдавайте куку и не показывайте Метрику, пока посетитель не подтвердит, что он человек. Очень простой метод предлагает Севальнёв (Пиксель-Плюс) и использует сам Яндекс в режиме "Инкогнито". Посетителю просто выводится модальное окошко с какой-нибудь ерундой ("Мы используем куки", "Установите поиск Яндекс основным", "Дичайше рады видеть вас на нашем сайте") и кнопкой "ок". Кликнул по кнопке - заходи, дорогой, гостем будешь. Не кликнул - пошёл вон, ботяра. <br/> в) Выделите подозрительные сегменты и решите, что с ними делать: отдавать 403, уводить на субдомен без Метрики и кук или ещё что-то. <br/> Суть: ботовод не должен загадить вам данные в Метрике, не должен получить куки и историю с вашим сайтом, то есть не выполнить тех задач, ради которых ваш сайт и попал в список для нагула. Тогда есть вероятность, что ботовод это рано или поздно заметит и удалит ваш сайт из своего списка для нагула - а там могут быть десятки тысяч сайтов, и история может продолжаться месяцы и годы.
Да у многих такая проблема и вряд ли это конкуренты, лично такое наблюдаю уже второй год на сайте. Натаскивают ботов, ip не определяются в метрике. Обращался в ТП яндекса, сказали - ну а хули мы можем, но наш алгоритм настроен так что бы не учитывал такое поведение при ранжирование. Пробовать фильтровать, находить что то общее в запросах и блочить на сервере.
Похожие вопросы