Ну и собирайте в одном месте, а то бот может заподозрить, что она сделана для того, чтобы страницы стали похожи на дубли.
/ru/forum/215449
Пока бот не принял её за более правильную... и она не заменила /
Сделайте
User-agent: * Disallow: /index.
А что при этом будет по запросам, которые почти не повторяются?
Ну это если не обращаться, а только прочитать.
Слова продажа ссылок ... тоже якобы не стыкуется с политикой Конторы, но если в объяве Директа этих слов нету, то пожалуйста, покажут по этому запросу. А бабло за клики — для Яндекса не пахнет.
Так вы именно это и сделали.
Ну покликайте по сцылкам.
Если такого накопится в разы больше, чем страниц с основным контентом, то бот может принять меры, но не всегда так, как вам бы этого хотелось.
Примеры их урлов приведите тут. От корня /
И что в HTML-коде по таким урлам?
Полезна ли будет такая страница ползателю, если она будет в выдаче?
http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=174992
Можно нагуглить то, чего нет в HTML
Не не могут, а не хотят.
Любая контролирующая структура ... оказывается в доле.
Познер много лет назад высказывался за свободную продажу любых наркотиков в аптеке... «ибо, запреты только повышают прибыль от их продажи».
ps Великий Яндекс не отказывается от спецразмещения по запросу дипломы... и ещё жив.
[ATTACH]103921[/ATTACH]
И ладно.
... ну он тормозит с обновлением данных. А тут ещё была куча жалоб на невозможность подтверждения прав.
Подождите.
Таким образом, современные ПС старательно хранят кучу дыр, через которые можно провигать всё, что явно расходится с их благими декларациями.
Сколько месяцев/лет нужно для того, чтобы их заспамить?.. до той стадии, чтобы ими стали пользоваться меньше?
С www | без www ?
А с трафом чего?