Сработат. В Вашем случае лучше ссылаться на /, а не на /index.php.
Явного нарушения не вижу. Забросить сайт .info в русские поисковики можно, но с некоторыми трудностями, например придется писать письмо в Рамблер и т.д. Тогда, ИМХО, лучше вынести языковые версии по поддоменам.
Внешние ссылки на статьи будут распределятся по двум сайтам, в случае, если на .info русские статьи не выкладывать, а ставить ссылки на .ru, то остальные ссылки на статьи тоже будут ставиться на .ru и только. Так сайт .ru получит больше от ссылочного ранжирования и прочих прелестей внешних ссылок.
Ха, очень даже статические получаются. Под динамическими я понимал нечто вроде Multiviews Apache, когда пользователям отдается контент на том языке, который у них в установках браузера стоит, при этом URL остается одним и тем же. В таком случае Яндекс получит русскую страницу, при запросе GET /, а Гугл английскую. На форуме когда-то обсуждалось уже. Что касается Вашего вопроса, то я бы делал site.info/english
header("HTTP/1.1 404 Not Found");
LiM, из собственного опыта не подскажете, как поисковики обрабатывают 301?
У меня, например, документы, которые выдавали 301 стабильно опрашивались поисковиками в течении полугода, после чего я стал выдавать 404, некоторые (Inktomi, Google, etc) до сих пор в эти URLы ломятся.
Зависит от того, каким образом определяется нужный язык, если он определяется автоматически. Если создать статические разделы, то проблем быть не должно.
После открытия второго сайта на первом, в английской части, все ссылки поставить на страницы второго, таким образом сохранятся посетители, которые уже ходят на первый. После некоторого времени английскую часть на старом сайте можно будет сначала закрыть, а потом удалить.
На втором сайте русской части делать не надо, просто надо поставить ссылки с него на первый, т.е. ссылка "Russian version", которая ведет на site.ru.
http://kako.yandex.ru/cgi-bin/test-robots
User-agent: Yandex StackRambler -- нельзя, надо:
User-agent: Yandex
User-agent: StackRambler
Disallow: /cgi-bin/ /test/ -- нельзя, надо:
Disallow: /cgi-bin/
Disallow: /test/
У Яндекса есть сервис, позволяющий тестировать robots.txt. Ваши примеры из статьи стоило бы прогнать через этот сервис, интересно, что бы он на них сказал. ;)
Avatar, я предполагаю, что зеркала склеиваются не по всем параметрам, а только по некоторым, например по тИЦ, а по каким-то продолжают быть разными. Мне периодически приходит рассылка о найденных ссылка с www и без друг на друга, хотя как зеркала они склеены.