Настройки robots.txt: закрыть ip сайта

C2
На сайте с 06.06.2008
Offline
144
776

В индекс google помимо самого сайта залетел еще и его ip - получился полный дубль.

Можно ли средствами robots.txt полностью закрыть от индексации ip сайта, при условии, что файл robots.txt один и тот же?

DV
На сайте с 01.05.2010
Offline
644
#1

Host пропишите.

И сервер настройте, чтобы не плодил дубли. Если с виртуальными хостами на одном IP, обязательно ставьте смартхост с заглушкой или редиректом хоть на Гугл.

VDS хостинг ( http://clck.ru/0u97l ) Нет нерешаемых задач ( https://searchengines.guru/ru/forum/806725 ) | Перенос сайтов на Drupal 7 с любых CMS. ( https://searchengines.guru/ru/forum/531842/page6#comment_10504844 )
C2
На сайте с 06.06.2008
Offline
144
#2
DenisVS:
Host пропишите.
И сервер настройте, чтобы не плодил дубли. Если с виртуальными хостами на одном IP, обязательно ставьте смартхост с заглушкой или редиректом хоть на Гугл.

Насколько я знаю директиву host только Яндекс понимает.

Вторую часть не вполне понял, у меня стоит VDS там только этот сайт, что такое смартхост?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий