JJwar

JJwar
Рейтинг
152
Регистрация
16.06.2009
Vladimir #:
После названия темы, тему нужно было начинать с последней вашей фразы - не прогер я
В этом случае единственный совет: нанять прогера и удалить все дубли страниц сайта. 

Других практических решений нет, есть только теория которую вы не в состоянии понять.

С сайтом работают профессиональные программисты, какое задание им поставить ?  Удалить все учётки пользователей? А как сайт будет функционировать без возможности зарегистрироваться на нём ?
LEOnidUKG #:

Ещё как вариант можно бахнуть canonical на главную страницу каждого раздела + выводить ссылки на эти мусорные страницы через JS, чтобы боты меньше их кушали.

сайт вообще на скрипте написан, как бот вообще находит ссылки эти - я не понимаю, не прогер я
Ponyk #:

Считаю то что и не убавляет. 

Считаю что убавляет,  с тех пор как поисковики начали пытаться сканировать десятки тысяч этого мусора - рост сайта в обоих поисковых остановился. Совпадение ? Не думаю.
Vladimir #:
304
а такое технически возможно ? Чтобы бот получал 302, а пользователь в браузере 200 ? Лучше тогда уж 301 ставить, зачем 302 то ?
Mik Foxi #:

это будут единичные заходы. а так на 99.99% гугл яндекс и бинг будут следовать указаниям и не пойдут по таким разделам. 

ходить будут всякие другие бешенные ИИ и говноботы. 

Вы вообще seo шник ? Как это не будут ходить, мне показалось что ли 61к  заходов ? См. скрин
png 2026-02-17_14-49-22.png
Стас Рахимов #:

Будут. Тебе это простительно не знать, ты не сеошник, но вот сеошники тут местные - они то должны знать, что бот всё равно будет ходить в этом случае.

В гугле даже есть специальный пункт, который называется "проиндексировано несмотря на блокировку в файле robots.txt"

Вот расскажите, сеошники, как может робот не ходить на эти страницы, при этом индексировать их?

В яндексе тоже, если не ошибаюсь есть такое "директивы в роботсе носят для поискового бота РЕКОМЕНДАТЕЛЬНЫЙ характер"
LEOnidUKG #:

Можете попробовать на таких страницах прописать:

Но при этом надо их открыть в robots.txt чтобы робот увидел, что не надо ничего там сканировать и ходить там по ссылкам.

Убрать в 404 от роботов это не панацея т.к. они будут ходить по ссылкам и кричать, что у вас теперь много 404 ошибок, а это ещё хуже.

Если я уберу из роботса запрет, бот ГАРАНТИРОВАННО будет обращаться к этим страницам. А мне как раз и нужно чтобы он к ним не обращался, не пытался их сканировать.
Стас Рахимов #:

Ну так он хочет, чтобы робот их вообще не дёргал, как я понял.

Робот их будет в любом случае дёргать, даже если запретить во всех местах.

А если я не понял, то вообще проблема не является проблемой.

Да, скорее всего проблема не решаема на данный момент, с платонами устал уже переписываться, горбатого лепят двадцать писем подряд. Раньше, 10-15 лет назад было просто - прописал в роботсе запрет и всё, бот даже не пытался сканировать.  

Думаю, проблема таки является проблемой: с тех пор как поисковики начали пытаться сканировать десятки тысяч этого мусора - рост сайта в обоих поисковых остановился. Совпадение ? Не думаю.

Mik Foxi #:
сейчас тоже за такие страницы яндекс вносит сайт под фильтры за "малополезный контент". такой мусор в роботс надо запрещать.
в роботсе я запретил, но яндекс-бот всё равно к ним обращается
Стас Рахимов #:
Ну и пусть сканирует, в чём проблема? Они же не попадают в поисковый индекс.
раньше за подобное - поисковики жёстко банили сайты, с формулировкой "Сайт создаёт излишнюю нагрузку на сервера поисковой системы". Сейчас поисковики не банят сайт, но и траста сайту подобная проблема явно не добавляет.
Всего: 219