Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
В этом мануале дам все доступные варианты и наработки по шаблонам robots.txt и на каждом будет расписаны варианты настроек и предложений.
Базовые термины: (С чем работаем)
Краулер (Crawler) / Робот (Bot):
Программа поисковой системы, которая сканирует страницы сайта и переходит по ссылкам. Примеры: Googlebot (Google), YandexBot (Яндекс), Bingbot (Bing) и т.д.
Индексация (канонические URL):
Процесс добавления информации о странице в...
Собрал все важные свои заметки в кучу, что-то поправил. Если считаете, что есть важная информация в теме, то перетащите сюда в тему и будем разбирать - Файл robots.txt или наоборот ошибки, ляпы или неактуальная информация, то сообщаем.
Мне иная информация особо не помогла, потому пользы для себя не увидел, может полезна будет другим, потому решаем сами.
P.S. За простыню простите, не ожидал, что так много всего накопится, позже поправлю и сокращу некоторые моменты для общего понимания.
Упорядочен список ботов, переписаны запреты, удалено лишнего с общего блока и продублированы некоторые запреты в блок яндекса, потому что было подтверждено, что яндекс игнорит многое с общего блока.
К XF 2.3 это не относится. Он вшит в ядро. Это для, тех у кого нет адаптации. Можно конечно ключ вытащить и поставить по рекомендации, но разницы не будет. Вы можете лично в этом убедиться. Вытащите свой ключ, и без вставки в корень текстовика с ним, проверьте сразу работу без него и после с ним. Разницы не будет.
Однако, XF рекомендует не светить ключом на него, потому решение вшить его в ядро было и в целях безопасности. Кстати, у кого версия 2.2 и ниже, то им для работы потребуется вставить свой ключ в корень домена. А уж как генерировать ключ, написано на офе -
У Вас недостаточно прав для просмотра ссылок.
Вход или Регистрация
. Однако, как по мне на версиях ниже он тупо не нужен.
У последнего обновления шаблона, убрал Disallow: /*#post-
Судя по индексации, слишком общий учёт, что блочил почти всё, перестарался. Если у вас есть, удалите. Ресурсы точно заблочит.
Кстати, на пользу всем, используйте Индексация - Анализ robots.txt. У гугла вроде тоже есть нечто подобное...
Кто может не знает, инструмент служит для анализа, правильно ли вы заблокировали нужный вам путь или обработчик. Он так же запоминает все ваши прошлые исправления основного robots.txt и можно переключится сразу на прошлую версию и проверить, где как работало и протестировать на месте все правки, он все правки держит тут, на изменения основного не влияет. Хороший полигон для тестов.