Как как... Все ссылочники приравниваются к ботам и шлются на ботовскую страницу )))
Дык, уже запретил. Я интересовался, достаточно ли этого :--)
Понял, думаю примерно также. Если у кого есть другие мнения -- прошу высказываться...
Возможно, всё оттого, что сайт с более высоким PR может вылезти выше только в случае "прочих равных"...
Насчет основного вопроса-то как? Достаточно роботсами запретить во избежание порчи? Или, если оно уже проиндексировано, то может сразу и не подействовать?
Ясно, так и будем действовать. Спасибо.
Я тож нашел несколько источников, но не выяснил вопрос, нужно ли отмечать отдельно страницы с разными параметрами или можно обойтись указанием одной общей, и это подействует на все? Пример парой постов выше...
IntelSib, спасиб, я уже ознакомился...
З. Ы. Кстати, дурацкий вопрос возник, а страницы с параметрами надо отдельно проставлять в роботсах или достаточно главной? Т. б. Disallow: /texts/fwords.php или Disallow: /texts/fwords.php и еще Disallow: /texts/fwords.php?page=2 и т. п.?..
Спасибо ответившим, в общих чертах понятно.
Тогда, если всё дело в списке запросов (а ведь люди и правда по ним стали на сайт заходить, хоть у меня по многим из них, нецензурным, в частности, никакой полезной инфы нет), вопрос -- если я в роботс.тхт запрещаю проход роботов по этим страницам -- я белый и пушистый или этого недостаточно?