Ну тут еще зависит от того, с какой морфологией внешнее ссылочное на измененную страницу стоит.
terrell, если на файлы, закрытые в роботс, стоит весомое кол-во внешних ссылок, роботс игнорируется. Правда, это только для Гугла такое правило существует.
http://www.google.com/support/webmasters/bin/search.py?ctx=ru%3Asearchbox&query=robots.txt
От возраста сайта зависит. Если молодой, я бы больше 20-30% неуника делать точно не стал бы.
Это субъективное имхо.
Могу сделать аудит - выявит ошибки и фильтры, если есть.
/ru/forum/567182
[потерто..]
Есть же сео-плагины. Типа vBseo для vBulletina, для других наверняка тоже есть.
Да, отталкивающее название. Глядя на домен, переходить не охота.
Сайт неплохой, но как вижу тизеры - серьезно перестаю воспринимать.
Да и даже <font size> внутри не скажется, по большому счету.
lstaticl, на будущее: АГС - это фильтр. Фильтры - они не банят.
Конкретно АГС оставляет в поиске от 1 до 30 страниц со сего сайта (чаще от 1 до 10) - это его характерная особенность.
Каким образом? Дубли - они по содержанию, а не по названию вычисляются. Дубли надо просто закрывать в роботсе, чпу на их наличие не повлияет.