С яху трафика как правило немного, так что без большого ущерба урезать его активность. Крайний вариант снижения активности поисковых ботов - бан по User-agent через .htaccess.
Теоретически могут наказать за любой вариант невидимой ссылки. Из-за одной ссылки никто даже чесаться не будет, но если на каком-нибудь сайте злоупотребляют такими фокусами, на него могут пожаловаться добрые люди (типа поисковый спам). Но больше в этом случае пострадает сайт, разместивший ссылки. Максимум что грозит вам - неучтенная ссылка. Спите спокойно :)
SEO_Black: что-то у вас маленький список ботов совсем :) Да и для броузеров тоже (у одной оперы для каждой версии свой юзер-эджент)
Ловите http://www.user-agents.org/
Поставьте пиво знакомому какому-нибудь, который нормально разбирается в компах. Он вам все сделает, а вы потратите меньше времени/денег.
имхо Debian. Но не стоит rpm-based (тоже имхо).
Talisman13: ну так ошибку не веб-сервер выдает. А то, что получается получить доступ к БД. Так что нормально проиндексируется это сообщение.
AnnaZayceva: а где они нарушаются в данном случае?
SciFi: а что в этом такого удивительного?
joost:
1. не может достучаться сервак вашего одного хостера до сервака другого хостера (таймаут по ходу). Как исправить: пинать хостера, чтобы разобрался (это маловероятно), попробовать друго хостера (вариант лучше), поставить сайт туда же, где стоит база (лучший вариант).
2. видят не контент, а сообщение об ошибке - что непонятного? в результате вы не вылезете по тем запросам, по которым можно было бы ожидать.
Через некоторое время по идее сраница с ?ref=123 склеится с обычной, вот и все. Плюсов со стороны поисковиков это никаких не даст, но и санкций не будет.
ЗЫ:
хотя если будет куча одинаковых страниц вида:
page
page?ref=1
page?ref=2
и тд, то поисковики их сами поклеить должны (склеят "сопли", так кажется это называется :) )
Оставьте как есть имхо. Просто партнеру этому по всей видимости повезет и он неплохо рефов срубит :)