Смотрите видео ниже, чтобы узнать, как установить наш сайт в качестве веб-приложения на домашнем экране.
Примечание: В настоящее время эта функция требует доступа к сайту с помощью встроенного браузера Safari.
Так код базовый. Сам оригинальный код из шаблона -Sadorimatsu, а где упоминание о том, что это моя идея и мой код?)
xfrm_resource_wrapper_macros:<xf:if is="$resource.isVersioned()">
<span class="u-muted">{$resource.CurrentVersion.version_string}</span>
</xf:if>
Хотите меня ещё до кучи обвинить в том, что я чей-то готовый код использовал для своего варианта? Зашибись, спасибо)Теперь вопрос, где ваш код?
Так вы же это началиХотите меня ещё до кучи обвинить в том, что я чей-то готовый код использовал для своего варианта? Зашибись, спасибо)
Идею рассмотрел и убрал лишние правила, вплоть до удаления 2.2 и сделал общий шаблон от 2.0 и выше, потому что как сверился по переменным, подойдёт на все версии текущий шаблон. Описание исправлено и дополнено. Так что, наслаждаемся.Я просто вижу, что в теме вы активно дорабатываете под XFRM, и поэтому предложил ввести подобное разграничение. В целом даже если идея не приглянется, это просто мнение со стороны.
В шаблоне прописаны наиболее вредные, можно не писать, никто не заставляет. Если конкретные донимают именно вас, то рекомендуется прописывать.Вы будете за ними бегать и искать? Смысл?
И это правильно, он и должен ругаться и гугл сам об этом пишет, что это правильно, он даже на переменные для яндекса в роботс будет ругаться и игнорить, ведь он видит только то, что в нём заложено, как и другие. Если вам плевать, чтобы индексировал всё, то конечно, можете всё открыть.Если хоть что-то блокировать то Google на странице Webmasters начинает ругаться.
В основном ругаться будет на пагинацию, а когда открыто будет всё, вы такой букет ошибок словите, что и не снилось. Одни аттачи чего стоят.На записи только для Яндекса он тоже будет ругаться.
IndexNow обновляет сразу любую запись и обновление и отправляет боту на обход, тем самым контент сразу же выходит почти на выдачу в поиске. Неважно, что вы постите и ничего, никуда отправлять не надо.IndexNow если у вас курс биткоина в реальном времени
Каким образом они могут кого-то донимать? Больного человека который логи апача смотрит?Если конкретные донимают именно вас, то рекомендуется прописывать.
Если вам плевать, чтобы индексировал всё, то конечно, можете всё открыть.
Ты разбиаешься, ага :) Сделай robots.txt на 2 тысяч строк. Запрети 1 тыс. ботов и пропиши 1 тыс. параметров когда заходить по времени. Это поможет продвижению сайта!Если вы не разбираетесь в индексации и считаете,
Каких ошибок? Где ошибки? Где мне посмотреть ошибки? У меня нет никих ошибок, нет никаких "дублей". С чего ты решил если запретишь какой-то бред то не будет "дублей"? Google сам рабзерется где дубли. Сейчас не 2005 год.что незачем тратить время на это и вас не смущает куча ошибок
С ботами действительно так бороться бессмысленно, если и лезут те, что нагружают, то решаются лишь на уровне сервера.Каким образом они могут кого-то донимать? Больного человека который логи апача смотрит?
И будете правы т.к. гугл определяет основную страницу только по "canonical" и ему плевать будет на другие. Однако, если вы не заметили, основной принцип настройки больше представлен для более эффективной работы яндекса, гугл тут поверхностно раскрыт. С точки зрения гугла, вы будете правы, что нет причин блокировать всё и ограничится лишь техническими запретами, пример который вы показали на роботс инфо и с тем условием, если у вас только XF, то да, этого достаточно, но даже с их запретами гугл будет ругаться, однако речь не про инфо, вы же привызываете вообще ничего не прописывать, получается сами себе противоречите? К тому же, изначально тут указывал разбор по яндексу и для него общий порядок шаблона, который наиболее эффективно себя отрабатывает, как показывают тесты. Гугл тоже это пошло на пользу. Так что говорить о том, что это не нужно, как минимум странно.он понимает что на ней нет никакого контента, и она ему не интеренса. В выдаче её не будет.
Сарказм уместен, но к вашему счастью, достаточно разобрался, чтобы понимать общий принцип, хоть я и не спец в этом, а такой же пользователь, как и все, но мне надоели проблемы индексации и решил покопаться в этой теме и на удивление обнаружил для себя много полезных решений и делюсь этим со всеми. Проблема не новая, но никто в плотную этим даже не пытался заниматься, вот что странно. К тому же незачем делать robots.txt на 2к строк и запрещать всех ботов, их не так много, как вы представляете, не нужно фантазировать.Ты разбиаешься, ага :) Сделай robots.txt на 2 тысяч строк. Запрети 1 тыс. ботов и пропиши 1 тыс. параметров когда заходить по времени.
Вебмастер яндекса, гугл консоль, bing консоль и т.д. Странно спрашивать очевидное. Раз вас всё устраивает, то рад за вас. Как раз запрещается не бред, а лишние дубли, которые влияют на чистоту выдачи. Я понятии не имею, как у вас работает продвижение, обычно многие привыкли платить за рекламу или покупать место на других сайтах для продвижения, но речь не об этом, а об чистой индексации без дополнительного продвижения, которое многим даже не нужно, всё упирается в задачи. Проблему дублей вы верно отметили, но не учли, что многие URL в этом не нуждаются.Каких ошибок? Где ошибки? Где мне посмотреть ошибки? У меня нет никих ошибок, нет никаких "дублей". С чего ты решил если запретишь какой-то бред то не будет "дублей"? Google сам рабзерется на дубли. Проблему дублей решают не в robots.txt а внутри HTML через canonical
Основная потребность в основном отпала на момент 2025 года, если быть точным, но и исключать базовую настройку не стоит. Видимо у вас своё неприятное прошлое на эту тему, к чему вы это указываете в моём ключе не понимаю, когда для всех разбираю вопрос и делюсь информацией, вы же пытаетесь компрометировать это тем, что это не нужно. Я не отрицаю ваш выбор, это тоже вариант продвижения и не раз об этом упоминал в теме для всех, вопрос уже в эффективности и того, какие костыли вы поставите для улучшения ситуации того, что могли бы сделать изначально правильно. И для справки, я в этой теме варюсь достаточно давно, со времен vB3+, так что прекрасно знаю, что творилось за последние 20 лет в этой теме, но это моё хобби, профессионально не занимаюсь и знать всё не обязан тоже, разбираю те вопросы, что важны и изучаю те CMS (в основном форумные), что мне интересны и учить вас не собираюсь, как и убеждать в обратном. Раньше, как и вы тоже считал, что на роботс не стоит обращать внимание, поработав с XF 2+, убеждаюсь в обратном. Учитывая, что делал перерыв с XF на лет так 6-7 с момента его релиза. Делайте выводы, спорить дальше не вижу смысла. Если считаете иначе, ок, приведите весомые доводы, почему нужно так и так и как это будет эффективно на сегодняшний день, если вы такой специалист в этой области, то предлагайте реальные решения, а не пустой трёп, уж простите. Я тоже не во всём могу быть прав и проверяю разные варианты и буду рад любой конструктивной критике и улучшению. Ресурс с темой создан для улучшения индексации на XF без лишних затрат на это. Если вы что-то полезное знаете, то поделитесь с людьми. Это будет наиболее полезно, чем пустая болтовня об этом. К тому же все базовые вопросы поднимал в теме и проверял основные моменты. Если можете указать на ошибку, то прошу, буду рад добавить в общий мануал, если это будет полезно.Ты лет на 10-15 опазадал. 15 лет назад школьники продавали SEO лохам, под видом редактирования robots.txt и запрещая несуществующих ботов, несуществующих ссылок и выставляя время когда заходить.
Disallow: /forums/*/page-*
/forums/novosti.10/page-2
/forums/novosti.10/page-3
/forums/pomosch.15/page-4
Disallow: /forums/*/page-*
Disallow: /*?*order=
Disallow: /*?*direction=
Disallow: /*?*prefix_id=
Disallow: /*?*last_days=
Disallow: /*?*starter_id=
Disallow: /*/reactions
Disallow: /*/latest
Disallow: /forums/*/page-*
то роботам будет запрещён обход этих страниц. В результате старые темы могут хуже обнаруживаться и реже переобходиться, особенно если:
Вас удивлю, сами темы на этих страницах доступны всегда и без проблем. Закрывается доступ индексировать постраничные страницы списка тем, но сами темы это не затрагивает, потому что это правило ничуть не мешает индексации конкретно тем. Зачем боту страница списка тем, которая имеет одинаковое описание от раздела и хватает заголовок от последней темы в начале страницы? Прежде чем рекомендовать это правило, тщательно проверял доступность тем. Она не имеет ценности для SEO. Для теста вбейте напрямую любую старую тему в поиске и посмотрите, как её выводит, это даст ответ на ваш вопрос. Конечно, если шаблон доработать с выдачей рандомного описания, то можно решить проблему с правильной подачей для индексации и тут, по принципу как устроен учёт постов в теме, но так ли это надо? Разве что можно рассмотреть кастомное решение для доработки конкретно этих страниц. Я лично тоже не вижу причин их закрывать, но если стоит важность их оставить, то стоит рассмотреть модификатор шаблона, который исправит это недоразумение, будет ли решение на этот счёт? Открыть правило мы можем, но ошибки никуда не денутся, которые можно и игнорировать конечно. Но раз стоит вопрос открыть путь просмотра индексации именно тут, то нужно рассмотреть, какое решение лучше всего подойдёт. Я за то, чтобы блокировать меньше для максимальной эффективности.Disallow: /forums/*/page-*
Вот так блокировать, я бы точно не рекомендовал без на той необходимости, потому что так вы блочите всё, что идёт с этим упоминанием. В яндексе для такого лучше прописывать clean-param, а на общем блоке лучше так не указывать. В описании об этом как раз приводил пример.Disallow: /*?*order=
Disallow: /*?*direction=
Disallow: /*?*prefix_id=
Disallow: /*?*last_days=
Disallow: /*?*starter_id=
Мы используем основные cookies для обеспечения работы этого сайта, а также дополнительные cookies для обеспечения максимального удобства пользователя.
Посмотрите дополнительную информацию и настройте свои предпочтения
