Товары выпали из индекса Google. Нужно найти причину!
В индексе Google остались только главная страница и два товара — всё остальное, включая недавно добавленные позиции, внезапно исчезло.
Новые товары, выложенные после падения, тоже не попадают в индекс — как будто Google их просто не замечает.
Мы уже исключили стандартные причины по гайдлайнам Google:
✔️ Контент — полностью уникальный, без копипаста
✔️ Сайт — всегда онлайн, без простоев и ошибок 5xx/4xx
✔️ Индексация — разрешена, robots.txt и метатеги в порядке
✔️ Технических сбоев — не выявлено (валидация, скорость, структура — всё чисто)
✔️ SEO — внутренняя оптимизация проведена: ЧПУ, заголовки, микроразметка, перелинковка
✔️ Безопасность — сайт не взломан, не заражён, не редиректит
✔️ Переспама — нет ни в текстах, ни в тегах, ни в ссылках
Ищем настоящего специалиста, а не «сканерщика», который запустит Screaming Frog, покажет пару зелёных галочек и скажет: «Всё ок, может, просто подождать?» или «У вас кнопка не того оттенка синего».
Нам нужен человек, который докопается до сути, найдёт скрытую причину — будь то нюанс в JS-рендеринге, ошибка в динамических параметрах, тонкость в canonical-тегах или что-то ещё, что ускользнуло от поверхностного анализа.
Доступы предоставим полные — FTP, админка, GSC, GA — всё, что потребуется.
Ожидаем результат с гарантией: возврат страниц в индекс, а не просто отчёт с «возможными рекомендациями».
Ответы 6
Понимаю вашу боль — вы не просто «в тупике», вы в засаде.
Google не игнорирует сайт — он перестал ему доверять.
И причина — не в коде, а в сигналах качества, которые ускользнули от Screaming Frog.
Скорее всего:
Вы используете динамическую генерацию URL (фильтры, сортировки, параметры) — и Google теперь считает ваши товары «дублями» или «слабым контентом», даже если текст уникален.
Особенно если:
— Товары генерируются через JS + AJAX
— Canonical ведут на главную или не совпадают с реальным содержанием
— Параметры в URL (
?sort=price
?color=red
— Сайт «выглядит пустым» при отключённом JS — а Googlebot иногда его так видит
Что сделаю:
- Зайду в GSC → «Покрытие» → найду, какие именно страницы крайне редко сканировались.
- Протестирую реальный вывод сайта без JS — как его видит Googlebot.
- Проверю каноникалы и динамические параметры — чаще всего там кроется баг.
- Включу логи сервера — посмотрю, как часто Googlebot заходит, и что он получает на самом деле.
Не буду говорить «подождите».
Я найду, почему Google перестал вас замечать — и верну всё в индекс за 72 часа.
Доступы — принимаются. Гарантия — результат, а не отчёт.
Жду ссылку на GSC.
Нет комментариев