Файл robots.txt

Сократить ручной труд, но там тоже потратили что-то типа 450-600$ на разработку, мне детали не раскрывали, сказали что просто позволяет быстрее все собирать в файл, чем руками тратить по несколько часов. Это все вот новомодная мишура, было интересно просто, в курсе ли вы про это, да и подкинуть как идейку, на подумать.
Есть хоть уже рабочий шаблон подачи в таком файле? Потому что вызывает лишь вопросы актуальность этой задумки. Одно дело помочь продвигать в поиске, другое платные рекламные гиганты этого просто не дадут, яндекс точно.
 
Есть хоть уже рабочий шаблон подачи в таком файле? Потому что вызывает лишь вопросы актуальность этой задумки. Одно дело помочь продвигать в поиске, другое платные рекламные гиганты этого просто не дадут, яндекс точно.
Прям рабочих шаблонов под данную задумку на xenforo у меня нет, но судя по примерам они все однотипные:

Код:
# Заголовок (обычно название сайта)

Мета описание ресурса.

## Раздел раз
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)

## Раздел два
по аналогии..
upd: Соответственно на нужные разделы вешать нужные ссылки для контекста.

Как я уже учитывал ранее, аддон у коллег просто собирает возможные и популярные темы на основе счетчика просмотров и реакций на сообщениях, а админы уже в панели жмут кнопки на добавление или отмену в файл, что-то могут руками вписывать, ну и массово одной кнопкой применяют изменения. Насчет llms-full.txt очень мало наслышан.
 
Последнее редактирование:
Код:
# Заголовок (обычно название сайта)

Мета описание ресурса.

## Раздел раз
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)

## Раздел два
по аналогии..
upd: Соответственно на нужные разделы вешать нужные ссылки для контекста.
Спросил тех самых коллег, у них шаблон почти такой же который я написал, за исключением некоторых правок:

Код:
# Название сайта (кратко без лишних описаний)
> Краткое мета описание (обычно что указывают в страницах html)

## Раздел раз (если форум)
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)
[Название темы](ссылка на тему)
...

## Раздел два (если ресурс)
[Название темы](ссылка на тему): Краткое описание из ресурса через api xfrm
...
llms-full.txt мы пока не трогаем, поскольку оттачиваем сейчас сбор тем. Хотим получить полную выгрузку данных за квартал.

Интересно однако.
 
Raniyx, за шаблон благодарю, аналогично мне и дипсик выдал. Но из всего возникает один вопрос, как понять, что это будет работать? И работает ли она в данный момент вообще? Потому что я не вижу ничего, кроме прописания вручную мета заголовка и описание + ссылка на нужные страницы и узлы. По факту такие вещи сами боты и хватают на автомате, а тут ещё упрощаем работу ИИ ботам... как по мне, нефиг им упрощать и себе усложнять жизнь. Я лично не особо понимаю полезности этой задумки, слишком уж смотрится это сыро и колхозно. Учитывая, что и без всего этого базовая индексация хватает самые свежие записи, тут же задумка подраздразумевает продвигать активные страницы и продвигать их чаще в поиск, базовая индексация это тоже делает, но медленней. Заниматься этим вручную, это идиотизм, без плагина такую работу не продвинуть, не мудрено, что гиганты отмахнули, очень сырое исполнение. Если не прав, то поправьте.
 
Последнее редактирование:
Внёс важные изменения в список robots.txt, с учётом последних правок + изменения в ботах. Так же тут расписал тут варианты настроек. Рекомендую обновить.
Помимо этого, протестировал довольно важную настройку в вебмастере, найти которую можно в - Индексирование - Настройка GET-параметров:
1773056887604.png

Что это и для чего?​

  • Clean-param (в robots.txt) - это инструкция для робота, как склеивать страницы ДО того, как он их обработает. Он экономит ресурсы сервера и говорит роботу, как эффективно загружать сайт, склеивая дубли на лету. Обычно достаточно прописать это.
  • Настройка GET-параметров (в Вебмастере) - это ваше прямое указание Яндексу, не тоже самое, что Clean-param, тут указываем какие параметры НЕ ВЛИЯЮТ на содержание страницы и их не нужно учитывать при индексации. Он следит за тем, чтобы в чистую поисковую выдачу не попал мусор, который вы уже прописали в robots.txt, и помогает убрать оттуда старые дубли. Иначе говоря он контролирует текущие URL и ДО и ПОСЛЕ. Помогает убрать мусор.
ПараметрЧто делает
1pageНомера страниц (пагинация)
2prefix_idФильтры по категориям ресурсов
3orderСортировка
4directionНаправление сортировки
5content_typeТип контента
6user_idID пользователя
7tВременные метки
8tab_idВкладки на странице
9_debugОтладочные параметры
10descОписание (вероятно, для фильтрации)
11download_countСчетчик скачиваний
12rejectОтклонение
13acceptПринятие
14updateОбновления
После заполнения, вам нужно поставить "Нет" в графе, "Учитывать параметр?".
Важное правило приоритета:
Если вдруг ваши настройки в Вебмастере и в robots.txt противоречат друг другу (например, в Вебмастере вы указали "учитывать", а в robots.txt прописали Disallow), Яндекс выберет то правило, которое ЗАПРЕЩАЕТ индексацию. Т.е. приоритет у запрета, что логично.

Если правильно настроите эти параметры, то забудете про дубли, по крайне мере у себя наблюдаю, как они исключаются. Рекомендуют ждать от 1-2 недель, чтобы увидеть реальный результат.

Вы можете заполнить по дефолту, как тут у себя, лишним не будет. Однако, если есть свои параметры, то вносим так же. Если наоборот надо учитывать переменные, то ставим "Да", но в XF это вряд ли будет нужно.

1773059088416.png

У меня после тестирования, чутка прибавились дубли, это нормально. Обязательно запомните по поводу этой статистики. Даже когда нет дублей в URL, но есть дубли на разных URL по заголовкам и описания, то вас это будут долбить постоянно, пока не измените. Если вам важны дубли таких заголовках, например у меня есть моды на разные игры и там одинаковые заголовки в их подразделах. От этого я никуда уйти не могу т.к. это удобства подачи, можно и забить хрен, на работу никак не скажется и на саму индексацию, но стата такая будет мозолить глаз. Если вам это мешает, изменяйте там, где показывает. Наша изначальная цель исключить дубли на уровне URL, чтобы получить чистую индексацию важного нам контента.

На этом мне больше шлифовать настройки robots и индексацию некуда. Остается дождаться апреля и посмотреть, что будет по итогам. Как бы не пришлось, что исправить.
 
Последнее редактирование:
ИМХО, но в проде лучше бы держать дебаг/девмод выключенным.
Тогда и прописывать это попросту не придётся.

Банально, у вас может быть плагин с уязвимостью, например от какого-нить Энди.
И выключенный дебаг позволит скрыть некоторые подробности о том, что у вас установлено.

Если на какой-то странице обнаружится проблема N+1, то это будет очень удобная точка для условного DDOS.
А поскольку, включенный дебаг позволяет увидеть кол-во запросов на странице - это всё сильно упрощает.

Но повторюсь, это чисто моё мнение.

Второй момент, включенный дебаг/девмод отключает некоторые микрооптимизации самого движка.
Мелочи, но всё равно приятно.


Ну и опережая вопрос по поводу как создавать те же самые модификации шаблонов.
Самый оптимальный вариант - просто создать плагин и в нём уже создавать модификации.
Можно будет протестить локально все изменения - это раз.
Контроль изменений через версии - это два.

Можно, конечно, врубать дебаг/девмод, создавать модификации и потом его вырубать.
Но как по мне, это не совсем удобно.
 
Самый оптимальный вариант - просто создать плагин и в нём уже создавать модификации.
У меня на это как раз создан плагин и на подобный случай и указал его, если у кого нет, то конечно, лучше убрать из списка. Так что тут вы правы. Но береженого бог бережёт, как говорится. 😁
 
Современный облачный хостинг провайдер | Aéza
Назад
Сверху Снизу