clayman1994
Проверенные
- Сообщения
- 2
- Реакции
- 0
- Баллы
- 138
Насколько я знаю Гугл не видит файл robots.txt, игнорирует его. И закрывать страницы нужно с помощью метатегов nofollow, noindex. На DLE я так делал, на XenForo не знаю как реализовать это
Смотрите видео ниже, чтобы узнать, как установить наш сайт в качестве веб-приложения на домашнем экране.
Примечание: В настоящее время эта функция требует доступа к сайту с помощью встроенного браузера Safari.
robots.txt работает до сих пор. Попробуйте какой-нибудь каталог, или целиком сайт в noindex прописать, улетит в момент.Так и есть, роботы давно игнорируют этот файл и писалось об этом не раз.
Ну, вот clean-param не всегда работает нормально.А чем clean-param для яндекса не угодил? Google больше ориентируется на rel = "canonical".
Это зависит от популярности страниц.Попробуйте какой-нибудь каталог, или целиком сайт в noindex прописать, улетит в момент.
User-agent: *
Disallow: /find-new/
Disallow: /account/
Disallow: /attachments/
Disallow: /goto/
Disallow: /posts/
Disallow: /login/
Disallow: /admin.php
Allow: /
При этом, Гугл проиндексировал все запрещенные страницы, порядка 12000, и сам же ругался в ГВМ, что индексирует на смотря на блокировку.
тут уже /whats-new/Disallow: /find-new/
Дублей быть не должно, так в html коде должен быть canonicalПоисковые системы видят 2 дубля тем на моем форуме:
1. site.ru/тема1/
2. site.ru/тема1/latest
Вообще универсального ответа нет. Более того большинство современных ПС самостоятельно структурируют карту сайта во внутренней базе. Есть и минусы указания: парсеры, атаки по ссылкам из карты и прочее. Большинство не указывают карту в роботсе и предпочитают использовать роботс только для сокрытия отдельных страниц от индексирования.скажите разница есть если не указывать или указывать Sitemap robots.txt?
Вот и я заметил что разницы особо то и нет! вот классная тема еще (не касается robots.txt) есть модуль DLE Google Indexing под систему dle. Очень хорошо ускоряет добавления новых статей! вот подобное б для форума сделать!Вообще универсального ответа нет.
В файле robots.txt?Clean-param: prefix_id[301]&prefix_id[367]&prefix_id[160]&prefix_id[371]&prefix_id[168]&prefix_id[174]&prefix_id[173]&prefix_id[176]&prefix_id[164]
Clean-param: &conten
Мы используем основные cookies для обеспечения работы этого сайта, а также дополнительные cookies для обеспечения максимального удобства пользователя.
Посмотрите дополнительную информацию и настройте свои предпочтения