Проблема с индексацией форума в Гугл

hasan14

Участники
Сообщения
4
Реакции
1
Баллы
5,500
Добрый день. Такая ситуация. Гугл почти 4 месяца не добавляет страницы в индекс, а те что есть активно выпадают, осталось около 260 страниц из нескольких тысяч что были 4 месяца назад. Последняя добавленная в индекс страница остановилась в декабре 2025, хотя после этого на форуме сотни постов новых. Примерно в это время 4 месяца назад в декабре 2025 я установил на форум плагин Similar posts. Возможно ли что именно этот аспект стал причиной дальнейших проблем с индексацией в Гугл?
 
Добрый день. Такая ситуация. Гугл почти 4 месяца не добавляет страницы в индекс, а те что есть активно выпадают, осталось около 260 страниц из нескольких тысяч что были 4 месяца назад. Последняя добавленная в индекс страница остановилась в декабре 2025, хотя после этого на форуме сотни постов новых. Примерно в это время 4 месяца назад в декабре 2025 я установил на форум плагин Similar posts. Возможно ли что именно этот аспект стал причиной дальнейших проблем с индексацией в Гугл?
Если-бы гугл так относился к этому плагину, все бы уже знали...
По крайней мере я сколько раз клиентам ставил данный плагин, их гугл не "топит". ИМХО
 
hasan14, Первым делом проверить надо на ошибки robots в настройках Console Google, если они есть, то индексацию не ждите. Как и проверить загрузку карты сайта /sitemap.xml
Никакие плагины на это не влияют.
 
@hasan14, Первым делом проверить надо на ошибки robots в настройках Console Google, если они есть, то индексацию не ждите. Как и проверить загрузку карты сайта /sitemap.xml
Никакие плагины на это не влияют.
Тут дело в чем. Как раз четыре дня назад на форуме произошла смена в файле robots.txt карты с sitemap.xml на sitemap.php . Дело в том что до сентября 2025 на форуме была по умолчанию карта sitemap.php с момента создания форума, но в сентябре так случилось что в файл robots.txt была загружена карта sitemap.xml созданная сторонним сервисом. Но как оказалось уже спустя пол года что эта карта статичная и она не отражала новые посты а зависла на моменте ее создания то есть сентябрем 2025. В конце марта я обнаружил эту проблем и специалист сменил снова в файле robots.txt карту sitemap.xml на ту что была до сентября sitemap.php. Но вот прошло четыре дня и я обнаружил в Гугл сеч консоль, что улучшения очевидно не наступили, а наоборот еще несколько сотен стрниц выпали из индекса, поскольку на момент того как специалист поменял карту то есть конец марта в Гугл сеч консоль было показано 369 страниц а сегодня оказалось что их уже 265, то есть выпали из индекса за несколько дней страницы вместо того чтобы там увеличиваться после починки файла robots.txt и возвращению в него динамичной карты sitemap.php вместо статичной sitemap.xml. Вот в чем вопрос. Поэтому я предположил что быть может проблема в плагине, который на форум также был поставлен несколько месяцев назад.
 
hasan14, как могу сделать вывод, изначально проблема была в вашей карте сайта, которая автоматически не генирировала новый контент сама и на это ещё влиял какой-то плагин и это было явно ошибкой допускать такое дело какому-то плагину, если 100% в нём не уверены. Не знаю, как были настроены ваши правила robots, но не исключено, что он мог многое закрывать для ботов того же гугла. А гугл всегда будет ругаться на то, что ему блокируют даже то, что не надо. К тому же ваша ошибка в том, что указывать нужно sitemap.xml, только его гугл корректно будет читать. php конечно тоже может, но даже по их официальным данным указывать не рекомендуется, только xml. Да и как могу судить, вы вообще не в теме по вопросу базового понимания индексации.
Рекомендую для себя ознакомиться и сверится со своими настройками - robots.txt - Инструкции и секреты настройки
 
Последнее редактирование:
hasan14, как могу сделать вывод, изначально проблема была в вашей карте сайта, которая автоматически не генирировала новый контент сама и на это ещё влиял какой-то плагин и это было явно ошибкой допускать такое дело какому-то плагину, если 100% в нём не уверены. Не знаю, как были настроены ваши правила robots, но не исключено, что он мог многое закрывать для ботов того же гугла. А гугл всегда будет ругаться на то, что ему блокируют даже то, что не надо. К тому же ваша ошибка в том, что указывать нужно sitemap.xml, только его гугл корректно будет читать. php конечно тоже может, но даже по их официальным данным указывать не рекомендуется, только xml. Да и как могу судить, вы вообще не в теме по вопросу базового понимания индексации.
Рекомендую для себя ознакомиться и сверится со своими настройками - robots.txt - Инструкции и секреты настройки
Да, так и есть. Я не большой специалист в технических моментах форума. Всю работу обычно делегировал знающим специалистам. Спасибо за дельный совет.
 
Современный облачный хостинг провайдер | Aéza

Похожие темы

Назад
Сверху Снизу