Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Нет, я на текущий момент сижу на xf 2.2 и такие настройки без проблем и для 2.3 подойдут. На продление лицензии пока лишних денег нет Адрес форума моего можете посмотреть в моём профиле и посмотреть текущие настройки robots, тут я условно кинул общий шаблон по дефолту, что подойдёт для всех, даже самому ленивому, а дальше уже самостоятельно дорабатываем под свои нужды.
Помоиму дефолтный роботс как у всех) Что там такого чего нет у других...
Единственное, что ты не поленился Clean-param прописать, обычно на него все забивают, так как не знакомы)
Я скока не смотрел у "всех", то нифига не у всех именно подобный набор. Как не странно, многие тупо забивают на это и зря.
Clean-param штука непонятная, но очень полезная. Особенно, когда вы ловите ошибку с выдачей GET. Хочешь, не хочешь, а изучишь.
Это мои на сегодня данные по дублям, то что показывает 13.02.2025 это прошлые обходы, они будут добавляться по мере обновлений на свою дату:
На удивление, это всё оригинальные адреса, лишь мельком у меня ещё проскальзывают такие обозначения:
Я не до конца ещё в этих Clean-param разобрался, но это реально полезная вещь, когда у вас бардак в ссылках))
Можно конечно Clean-param прописывать по принципу Clean-param: _debug&prefix_id[0]&download_count&direction&desc&page, работать будет, но один хрен разберешь, что на что у тебя)))
Clean-param я выдрессировал до идеала, когда владел интернет-магазинов на пол ляма товаров с куче фильтров. Хочешь не хочешь выучишь) Так, что xen в этом плане десткий лепет))
Clean-param я выдрессировал до идеала, когда владел интернет-магазинов на пол ляма товаров с куче фильтров. Хочешь не хочешь выучишь) Так, что xen в этом плане десткий лепет))
Тогда вы может сможете подсказать, как правильно их настроить на XF?) Или приведите пример указанных запросов на дефолтный набор или может свой текущий. Интересно взглянуть, вероятно найду в чём и свой вариант доработать.
Если сверитесь с переменными в шаблонном варианте и сравните тут, то увидите, что всё работает.
Посмотреть это можете в Вебмастер - Индексирование - Страницы в поиске.
В общем, пробуйте и отслеживайте результат.
Так же мой вариант помог избавиться от это ошибки:
Я в первом сообщении своём написал, что у вас дефолтный роботс) Соответственно он плюс минус как у вас.
Единственный момент - я больше закрываю ИИ ботов что бы не шастали по сайту.
ФАКЕР, Как у вас на статистику отразилось в вебмастере? Удалось полностью избавится от ненужных дублей? С ботами вижу дотошно подошли, есть на то причины? Большую часть даже и не знаю.
Конечно нет. Пользователи сами создают эти самые дубли, создавая темы) С этим ничего не поделать.
Код:
Как у вас на статистику отразилось в вебмастере?
На длительной дистанции форум всегда только рос.
Код:
С ботами вижу дотошно подошли, есть на то причины?
У меня:
1. уникальный контент. я не хочу что бы на нём обучались ИИ
2. яндекс нейро нагло ворует выдержки с сайта не ссылаясь на источник (так же поступают и многие другие нейронки)
3. не столь важно но всё таки: нейронки грузят сервак
5. trendictionbot - это вообще ядерный мусор, который может положить форум)) работает практически как стрессер если случаи когда форум лежал при его сканировании.
А так в целом на запреты в robots реагируют только "белые" боты, остальным плевать и их надо рубить в .htassecc
akok, надо смотреть по статистике, что у вас чаще выбивает. Если это оригинальные страницы, то с дублями на них вы ничего не сделаете, если только лично не перекроете ботам их просмотр.
Если оригинальные страницы, например на ресурсах идут на обновление, обзоры, историю и рекомендованные, то можно просто их перекрыть так:
Чтобы у вас светились только строго общие разделы и страницы ресурсов. Если у вас там по темам или выдают плагины, типа ams, то тут надо смотреть индивидуально. Общего шаблона, что я кидал тут, будет уже достаточно, остальное нужно вручную уже дописывать согласно уже вашим хотелкам.
По поводу Clean-param от ФАКЕР, то у него часть оригинальная, часть нет. По крайне мере sort, daysprune, nojs, highlight мне не попадалось, но я это сужу на 2.2. Если на 2.3 они есть, то вероятно и относятся, на текущий момент я это не проверю. Вам нужно самому это уже отследить в вебмастере и по примеру шаблона прописать недостающие.
Там не совсем общий шаблон, там моды затесались. По статистике смотрел... там три варианта названия темы, старые, с багой от 2.3 и именные, после правки ошибки. В остальном посмотрю в своем полотенце, давно нужно обновить.
akok, вы поймите одно, если у вас URL по типу type_id, prefix_id, page-1,2,3,4 и т.д. То для таких вещей вам нужно прописывать Clean-param. Только он решает вопрос этих дублей. Нужно понять, что у вас сейчас выводится и по этим признакам дописать в свой Clean-param правило, которое запретит боту их учитывать. Прямые URL без ничего лишнего и дубли на них, то к сожалению без ручного вмешательства ничего не сделаешь. Тут уже нужен SEO плагин, либо на них просто забить, как я заметил работе вообще не мешают, главное избавиться от лишнего мусора. Я лично когда настройки провёл и избавился от хлама, индексация ощутимо выросла. А лишние, даже чистые URL можно просто запретить, если они не важны. Пробуйте и следите за статистикой и увидите результаты.