Нужно больше данных, но вот исчерпывающий чеклист и команды, которые помогут понять, почему Google Search Console не может обработать sitemap.xml и как это исправить. Выполните команды и пришлите выводы (особенно содержание robots.txt, заголовки ответа для sitemap и первую часть файла sitemap.xml, а также точную ошибку из GSC) — тогда смогу точнее подсказать.
1) Быстрые проверки (выполните в терминале)
- Посмотреть robots.txt:
curl -sS https://vtime.pro/robots.txt
— проверьте, нет ли там строки Disallow: /sitemap.xml или других правил, блокирующих путь sitemap.
- Проверить заголовки ответа sitemap (статус, тип контента, редиректы):
curl -I https://vtime.pro/sitemap.xml
curl -IL https://vtime.pro/sitemap.xml (следовать редиректам)
- Посмотреть содержимое sitemap (первые строки, чтобы проверить XML и кодировку):
curl -sS https://vtime.pro/sitemap.xml | head -n 40
- Протестировать как Googlebot:
curl -I -A "Googlebot/2.1 (+http://www.google.com/bot.html)" https://vtime.pro/sitemap.xml
2) Что искать в выводе (возможные проблемы)
- HTTP-код не 200 (например 403, 401, 404, 500) — Google не сможет прочесть файл.
- Файл возвращает HTML страницу (Content-Type: text/html) вместо XML — вероятно ваш движок отдаёт страницу ошибок/перенаправление.
- Редирект на другой домен/на http ↔ https цикл — GSC может не следовать/обработать.
- robots.txt запрещает доступ к sitemap (Disallow для пути) — Google не будет его читать.
- Блокировка по User-Agent / WAF / firewall — сервер даёт 403 для Googlebot.
- Неправильный формат XML (ошибки синтаксиса, неверная кодировка, отсутствует xmlns) — парсер GSC выдаст ошибку чтения/разбора.
- Размер >50 MB (неархивированный) или >50 000 URL — нужно разбить на sitemap index / несколько файлов.
- Неправильные URL в sitemap (разные домены, отсутствует https если сайт на https, канонические разные) — Google может игнорировать.
- Sitemap .xml.gz: убедитесь, что файл действительно сжат и сервер отдает корректные заголовки (Content-Encoding) и имя файла .xml.gz.
3) Частые ошибки в Search Console и их причины
- "Sitemap could not be read" / "Sitemap could not be fetched" — проблемы доступа/статус код/robots.
- "Submitted URL blocked by robots.txt" — robots запрещает путь или отдельные URL в sitemap.
- "Parsing problems" — XML невалиден, неправильные теги, лишние символы/кодировка.
- "Empty sitemap" — файл пуст или содержит только ссылки, которые Google считает недопустимыми.
4) Как исправлять
- Убедитесь, что URL sitemap корректен (https://vtime.pro/sitemap.xml) и что он доступен из интернета (200 OK).
- Уберите блокирующие правила из robots.txt или поместите Sitemap: https://vtime.pro/sitemap.xml в robots.txt.
- Если сервер блокирует Googlebot, настройте firewall/htaccess/nginx так, чтобы боты Google могли читать.
- Проверьте валидность XML через xmllint или онлайн-валидаторы.
Пример локально: xmllint --noout sitemap.xml
- Если большой sitemap — разбейте / используйте sitemap index.
- Проверьте SSL (сертификат), чтобы Google мог установить соединение без ошибок.
5) Отправьте сюда (скопируйте выводы):
- Вывод curl https://vtime.pro/robots.txt
- Результат curl -I https://vtime.pro/sitemap.xml (и curl -IL)
- Первые ~40 строк sitemap: curl -sS https://vtime.pro/sitemap.xml | head -n 40
- Точная ошибка, которую показывает Google Search Console при попытке обработать sitemap
После этого я укажу конкретную причину и дам точные шаги по исправлению.