Одна из 100% причин - открытые для роботов других поисковиков результаты выдачи поиска, например:
http://www.allchita.info/search.php?str=%EF%F0%E5%E4%EF%F0%E8%ED%E8%EC%E0%F2%E5%EB%FC+%EF%EE%EB%FF%EA%EE%E2
http://www.allchita.info/search.php?str=%C8%CF+%CC%E8%F0%EE%EC%E0%ED%EE%E2
ну и так далее.
Таких страниц может быть неограниченное количество, они не несут смысловой нагрузки и загрязняют выдачу поисковиков.
Забанят сайт, на котором стоят такие ссылки.
Но Вам стоит остерегаться покупать такие ссылки, потому что могут забанить сайт, на котором стоят ссылки и Ваши деньги будут потрачены зря.
Странно, что на первый вопрос фактически еще никто не ответил:
При прочих равных условиях (тИЦ, PR, наличие в ЯК, DMOZ, кол-ве ссылок, тематике и т.д.) цена с доменов 2-го уровня должна быть примерно одинакова вне зависимости от выбранной зоны (это теоретически), доменов третьего несколько ниже (ну это уже практически).
В общем, при покупке ссылок, необходимо смотреть на сам сайт, а не имена доменов и зон.
Ага, у меня в FlashGet по умолчанию стоит IE5.x.
Так что по юзер-агенту не вариант юзать защиту от скачивания.
Не разбираюсь я в тонкостях, но юзайте что-то типа JS.
il4, ну не покажет Вам Яндекс все бэки, которые знает. Следовательно не покажут и сервисы, которые смотрят только по Яндексу.
http://www.google.ru/search?q=site:www.romver.ru%20-1234567890&hl=ru&ie=windows-1251
Результаты: 1 - 100 из 9 300 русском страниц из домена www.romver.ru
У Вас там романы всякие опубликованы, сказки, прочее...
К разработке сайтов и вебдизайну это отношения не имеет.
Следовательно эти страницы созданы с единственной целью - привлечения трафика.
Как сказал Илья Сегалович в интервью SeoNews:
По первому предложению, не знаю, но скорее правда.
На счет пессимизации, я думаю, что под этим подразумевается бан. (Так как слово "бан" сотрудники Яндекса стараются по крайней мере избегать).
Естественно. Я сразу не обратил внимание, что страницы в основном у Вас вида /?page.
Тогда:
Disallow: /?p=
Может Вы просто не дождались, когда выбросит эти страницы из индекса?
Так попробуйте:
Мне помогло.
В robots.txt допишите:
И не только это, там еще кое-что можно, например:
Disallow: /?page=activation&wmid=
В общем проще 1 раз написать:
Disallow: /?p