Скрыть сайт от поисковиков

[Удален]
1465

Собственно задача, обратна обсуждаемым (ну или не нашел оптимального решения).

Планируется перелопатить практически весь сайт, не затрагивая его работу (смена дизайна, структуры и т.д.). Для этого хочу повесить сайт на другом домене, который хочу закрыть от поисковиков. Как только работы будут завершены (а это не скоро), перенесу результат на его домен.

Как я понимаю, robots.txt не панацея, т.к. может игнорироваться некоторыми поисковиками.

Что еще посоветуете?

NC
На сайте с 23.05.2010
Offline
31
#1

Не настраивайте DNS для данного хоста. Ограничтесь записью в hosts на компьютерах тех, кому это надо :) И никто Ваш сайт не увидит :)

Актуален обмен ссылками: универсальное (/ru/forum/503305), фото (/ru/forum/503307)
kirill2009
На сайте с 20.08.2009
Offline
52
#2

в роботе и закрывать нужно.

Результаты: ТИЦ 300, PR 6 - ОТ САПЫ (http://www.sape.ru/r.DSXgZcFAAV.php) "Вечные ссылки и статьи" (http://www.liex.ru/A5B7B2E9B3816577D46B87359EC8781E.htm)"Заработок для вебмастеров" (http://advego.ru/7hGY8GSPW5)
K
На сайте с 31.01.2001
Offline
737
#3
Sergsap:
Как я понимаю, robots.txt не панацея, т.к. может игнорироваться некоторыми поисковиками

Вешайте сначала robots.txt, а потом сайт, а не наоборот. И все будет хорошо.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
[Удален]
#4

Всем спасибо, понравилась мысль не настраивать DNS. Береженого Бог бережет, повешу и роботс и DNS убью 😂

K
На сайте с 31.01.2001
Offline
737
#5

Еще добавьте метатег <meta name="robots" content="noindex">

Sergsap:
Береженого Бог бережет,

... сказала монашка, натягивая второй презерватив на свечку. :)

... и еще настройте, чтобы все страницы выдавали HTTP-заголовок 404.

NC
На сайте с 23.05.2010
Offline
31
#6
Береженого Бог бережет, повешу и роботс и DNS убью

(иронично) Так тогда уже и средствами .htaccess/.htpasswd сайт спрячьте, и firewall настройте, чтоб только с определенных IP пускало...

[Удален]
#7

Повеселили. А про .htaccess/.htpasswd тож думал, ток никогда туда не лазил, поэтому вариант с DNS показался самым оптимальным. Ну а про роботс, по-мойму давно как-то юзал его для таких же целей, ток все-равно выскакивали результаты порой (в каках-то малых поискових

ХЗ
На сайте с 31.08.2008
Offline
155
#8
Sergsap:
Повеселили. А про .htaccess/.htpasswd тож думал, ток никогда туда не лазил,

в .htaccess:

Order Deny,Allow

Deny from all

Allow from (ваш ип, которому разрешен доступ к сайту)

[Удален]
#9

Спасибо, терь вооружен по самое не хочу. Пока ограничился роботс, но если че-нить просачицца наружу, буду принимать кардинальные меры, благо есть 2 способа в резерве.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий