Система тегов на форуме с точки зрения SEO

john_j

Проверенные
Сообщения
422
Решения
8
Реакции
133
Баллы
745
На сайте используется XF 2.1

Обнаружил что система тегирования на форуме создает кучу "мусорных" страниц. Мусорных с точки зрения поисковых систем. Большинство таких страниц в Яндексе помечаются как "Недостаточно качественная", а в Google как " Страница просканирована, но пока не проиндексирована". Хотя некоторые все-таки попадают в индекс, и приносят порядка 0.2 - 0.5% трафика из ПС.

Хотел узнать мнение от тех кто в теме - стоит ли закрывать эти страницы от ПС ?
Стоит ли "уникализировать" такие страницы? С целью повысить их качество.

Есть предположение, что большое количество таких "некачественных" страниц негативно влияет на SEO сайта в целом.
Какие мнения ? Свои наблюдения ?
 
Обнаружил что система тегирования на форуме создает кучу "мусорных" страниц
Это какие например? Те, на которых содержатся весь контент, отмеченный определенной меткой? Так оно должно лежать в robots.txt как "запрещенное к обработке".
 
  • Мне нравится
Реакции: Hope
Вот эти: tags/
У меня по умолчанию только вот это было закрыто

User-agent: *
Disallow: /whats-new/
Disallow: /account/
Disallow: /attachments/
Disallow: /goto/
Disallow: /posts/
Disallow: /login/
Disallow: /admin.php
Disallow: /members/
Allow: /

Во первых, если на эти страницы идет трафик из ПС, то они как-бы имеют право жить в индексе.
Во вторых, robots.txt уже давно не запрещает индексировать, а только рекомендует. А запрещает - noindex в метатегах страницы meta name="robots"
Мне даже пришлось профили участников и еще что-то скрывать от ПС, уже не помню. Потому как появились страницы - Проиндексировано, несмотря на блокировку в файле.
 
robots.txt уже давно не запрещает индексировать, а только рекомендует.
Он никогда и не запрещал. Он с рождения никогда не запрещал, но воспаленный межушный ганглий "сеошников" думал иначе. Равно так же как noindex и прочее в этом духе - тоже самодеятельность без RFC.
 
Он никогда и не запрещал.
Ну во всяком случае, раньше поисковики не трогали то что там было, а сейчас лезут куда не надо.
Вопрос не в этом, а в целесообразности продвигать страницы тегов.
 
ноль, ибо это дублирующийся контент.
Ну хз, я бы не был так категоричен. Я, например, заказал у Мэтью плагин, выбрал пару основных тегов, добавил им описание, дескрипшн, мета-изображение, и линкую в социальных сетях + собираю с поисковиков траффик на один из таких тегов. Получается как мини-категория новостей на одну тему
1593704671152.png
(на диаграмме статистика за квартал, 1800 визитов)
 
  • Мне нравится
Реакции: Hope
Одно дело, когда это не просто список контента, помеченного меткой. Другое - с доп инфой. Так что не надо сравнивать ванильную страницу меток и доработанную.
 
По идее это называется частичные дубли.
Сами то страницы получаются как-бы псевдо-уникальные - полный контент собирается из начала всех тем + уникальный заголовок
Трафик на них идет, но в среднем 0.4% от других
Отсюда и вопрос - пробовал ли кто-то его увеличить, если например их уникализировать.
 
Я, например, заказал у Мэтью плагин, выбрал пару основных тегов, добавил им описание, дескрипшн, мета-изображение, и линкую в социальных сетях + собираю с поисковиков траффик на один из таких тегов.
(на диаграмме статистика за квартал, 1800 визитов)
Логично, но для пары тегов можно все это в шаблоне ручками прописать.
Тут нужна идея автоматической уникализации всех теговых страниц.
Сегодня в целях эксперимента, на теговых страницах сделал генерацию случайной уникальной картинки типа коллажа из заготовок, c alt-ом тега, плюс небольшой шаблонный текст вверху с подстановкой переменной названия тега. Картинка генерируется на лету, через GD библиотеку, + текст тега в неё запихиваю.
Посмотрю, может так начнут заходить в индекс. Если не начнут, забью и закрою страницы от ПС.
 
Последнее редактирование:
Так какой результат получился?
Долго тестировал. Имеет смысл на больших форумах и при наличии аддона Tag Essentials
Сам смысл заключается в полу-автоматическом создании целевых, уникальных страниц связанных с каким либо термином (сущностью, и тд).

Но, для того что-бы гугл "полюбил" эти страницы, нужно будет немного поработать.
Если кратко, то:
  • Создавать определения тега
  • Добавлять теги что-бы получить 2 - 3 страницы по тегу
В этом случае образуется уникальная страница семантически связанная с темами форума.
Уникальность достигается за счет текста определения тега и текста сниппетов подтягиваемых из первого сообщения.
Долго писать подробно.

В итоге удалось создать страницы с хорошим трафиком по ряду ключей
 
Современный облачный хостинг провайдер | Aéza
Назад
Сверху Снизу