Что есть хорошо, а что плохо?

S 300
svv
2684

Не секрет, что поисковики находят кучу страниц, часть из которых исключают. Среди них выделяются:

а) Дубли

б) Редиректы

в) Неканонические страницы

г) Недостаточно качественные

д) Ошибка HTTP

Если по пунктам (а) и (г), бесспорно, нужно работать и избавляться от таких исключений, то стоит ли биться за отсутствие пунктов (б), (в) и (д)?

Не знаю как у всех, могу судить по своим сайтам:

б) Редиректы со страниц доЧПУшной эпохи на нынешние (КАК он это помнит?) и пр.

в) Самые разнообразные сортировки, варианты каталога с доп параметрами и пр.

д) Как правило ранее существовавшие страницы и хрен знает откуда взятые не существующие страницы сайта, которые поисковики откуда то взяли и сервер корректно отдаёт 404-ю ошибку.

F 158
#1

То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил

Avatar 112
#2
Fessen:
То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил

в чем проблема то? запрещай их индексацию и delurlом чикай

Продвижение сайтов любой тематики (http://estranho.ru). В поиске интересных проектов.
Avatar 404
#3

у меня таких много - проще не обращать внимания, что-то ценное он сам найдет и не исключит. А это еще лишние внутренние ссылки для перелинковки. Смысл их исключать, если робот их плохими не считает?

Brexit - уже совсем рядом. (https://about-this-model.blogspot.com/2019/03/brexit.html)
Avatar 684
#4
svv:
стоит ли биться за отсутствие пунктов (б), (в) и (д)?

Если бы вы посмотрели на ситуацию глазами писателя бота, то... замети ли бы, что количество HTTP-обращений лучше сократить ... чтобы лишних не было (пока делаются лишние, не индексится то, что могло бы).

Avatar 404
#5

богоносец,

посмотрите на него - как сайтоделатель. У меня из перечисленного на блоге в подписи нет в принципе вообще бездельных страниц.

1. Страницы из календаря по датам со списком постов - бесполезны только когда пост один, но все равно это полноценный анонс поста

2. Страницы списка страниц не бесполезны. Потому что есть НЧ, которые могут образоваться именно на таком списке в разделе. Например, раздел "Уголовное право". Там вторая страничка, учитывая что у нас в области второй год судят губернатора бывшего - может попасть под именно такие НЧ запросы и быть довольно высоко, если кто-то будет гуглить что-то вроде "уголовное дело, рассмотрение дела хорошавина в судах". По подобным запросам отдельно можно не вылезти, а в целом вылезти можно.

Есть самый минимум страниц - кторые бесполезны, например пустая страница поиска, но WP выводит вообще все посты. В общем хочется смотреть глазами человека, боту то все равно. Он не для себя ищет, а для всех сразу. За это я его не уважаю. Бота, он не читает что ищет. Согласен по "а" и "б" - они прямо даром людям не нужны и не нужны роботу. А категория "д" - не нужна поисковику только, все ошибки стоит снабдить просто автоматически антииндексацией..... Но боту тоже легко их исключить.

Avatar 684
#6

Если бы речь была о магазинах с тысячами страниц, то дубли (и т.п. лишние доступные боту страницы) === замедление индексации. Вот тупо не надо создавать лишней нагрузки ботам / сети.

У ботов есть ограничения на обращение к сайту, создателю так захотелось, он думает о дефиците ресурсов (фактически о конкурентоспособности / себестоимости индексации) и ограничении памяти на закрома, а не о том, что подумают вебмастеры (ими займутся пиарщики из ТП).

Avatar 348
#7

всё что ненужно закрыть или удалить, есть такое понятие как краулерный кредит (кредит бота), у каждого сайта он свой

Сайты на WordPress тут просто летают! (https://vk.cc/atAGUU)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий