Asar

Asar
Рейтинг
334
Регистрация
23.08.2004

Дык, уже запретил. Я интересовался, достаточно ли этого :--)

Понял, думаю примерно также. Если у кого есть другие мнения -- прошу высказываться...

Возможно, всё оттого, что сайт с более высоким PR может вылезти выше только в случае "прочих равных"...

Насчет основного вопроса-то как? Достаточно роботсами запретить во избежание порчи? Или, если оно уже проиндексировано, то может сразу и не подействовать?

Ясно, так и будем действовать. Спасибо.

Я тож нашел несколько источников, но не выяснил вопрос, нужно ли отмечать отдельно страницы с разными параметрами или можно обойтись указанием одной общей, и это подействует на все? Пример парой постов выше...

IntelSib, спасиб, я уже ознакомился...

З. Ы. Кстати, дурацкий вопрос возник, а страницы с параметрами надо отдельно проставлять в роботсах или достаточно главной? Т. б. Disallow: /texts/fwords.php или Disallow: /texts/fwords.php и еще Disallow: /texts/fwords.php?page=2 и т. п.?..

Спасибо ответившим, в общих чертах понятно.

Тогда, если всё дело в списке запросов (а ведь люди и правда по ним стали на сайт заходить, хоть у меня по многим из них, нецензурным, в частности, никакой полезной инфы нет), вопрос -- если я в роботс.тхт запрещаю проход роботов по этим страницам -- я белый и пушистый или этого недостаточно?

Дык, я же говорю -- есть страница, где для ради прикола перечислены все запросы яндекса на "фото животных" -- потому что там такие формулировки попадаются, что народ читающий в восторге (нарочно не придумаешь). Поэтому посетителям и роботам эти страницы с "порно" в тексте вполне доступны.

Всего: 2386