Найдены страницы-дубли с разными GET-параметрами

Статус
В этой теме нельзя размещать новые ответы.

Adguest

Проверенные
Сообщения
270
Решения
5
Реакции
44
Баллы
60
Вот примеры страниц и дублирующих их страниц с незначащими GET-параметрами:
  • content:
    site.com/search/member?user_id=321
  • site.com/search/member?user_id=321&content=thread
  • content:
  • site.com/search/member?user_id=123
  • site.com/search/member?user_id=123&content=thread
Если эти страницы действительно являются дублями, рекомендуем использовать директиву Clean-param в robots.txt

Кто может подсказать, лучше использовать Clean-param или достаточно прописать Disallow: /search/member?* ?
 
Последнее редактирование:
User-Agent: Yandex
Disallow:
Clean-param: user_id /search/

подойдет ли такой вариант или он не правильный
 
Прописал в итоге вот так clean-param: content=thread с подсказкой сеошника
 
Статус
В этой теме нельзя размещать новые ответы.
Современный облачный хостинг провайдер | Aéza
Назад
Сверху Снизу