Дык, уже запретил. Я интересовался, достаточно ли этого :--)
Понял, думаю примерно также. Если у кого есть другие мнения -- прошу высказываться...
Возможно, всё оттого, что сайт с более высоким PR может вылезти выше только в случае "прочих равных"...
Насчет основного вопроса-то как? Достаточно роботсами запретить во избежание порчи? Или, если оно уже проиндексировано, то может сразу и не подействовать?
Ясно, так и будем действовать. Спасибо.
Я тож нашел несколько источников, но не выяснил вопрос, нужно ли отмечать отдельно страницы с разными параметрами или можно обойтись указанием одной общей, и это подействует на все? Пример парой постов выше...
IntelSib, спасиб, я уже ознакомился...
З. Ы. Кстати, дурацкий вопрос возник, а страницы с параметрами надо отдельно проставлять в роботсах или достаточно главной? Т. б. Disallow: /texts/fwords.php или Disallow: /texts/fwords.php и еще Disallow: /texts/fwords.php?page=2 и т. п.?..
Спасибо ответившим, в общих чертах понятно.
Тогда, если всё дело в списке запросов (а ведь люди и правда по ним стали на сайт заходить, хоть у меня по многим из них, нецензурным, в частности, никакой полезной инфы нет), вопрос -- если я в роботс.тхт запрещаю проход роботов по этим страницам -- я белый и пушистый или этого недостаточно?
Дык, я же говорю -- есть страница, где для ради прикола перечислены все запросы яндекса на "фото животных" -- потому что там такие формулировки попадаются, что народ читающий в восторге (нарочно не придумаешь). Поэтому посетителям и роботам эти страницы с "порно" в тексте вполне доступны.