Как лучше закрывать домен от индексации

123
overnight
На сайте с 23.05.2008
Offline
262
#11
serjoo:
Пример есть? По Disallow: /

Отдельные страницы закрытые в robots Google отправлет в сопли:

И в справке они пишут, что это не сильно надёжно: https://support.google.com/webmasters/answer/6062608?hl=en

***

Если нужно надёжно закрыть, то можно сделать доступ по паролю или с определённых IP.

http://lifeexample.ru/razrabotka-i-optimizacia-saita/htaccess-zapretit-dostup.html

fosko
На сайте с 14.05.2015
Offline
21
#12

У кого взять информацию по IP?

---------- Добавлено 04.01.2016 в 19:45 ----------

overnight:
Отдельные страницы закрытые в robots Google отправлет в сопли:


И в справке они пишут, что это не сильно надёжно: https://support.google.com/webmasters/answer/6062608?hl=en

***

Если нужно надёжно закрыть, то можно сделать доступ по паролю или с определённых IP.
http://lifeexample.ru/razrabotka-i-optimizacia-saita/htaccess-zapretit-dostup.html

Да, верно. По-этому потом проблемы, хотя вроде бы закрывал.

overnight
На сайте с 23.05.2008
Offline
262
#13
fosko:
У кого взять информацию по IP?

Да сделать логин/пароль 1/1 для чужих и IP для себя прописать.

Гуглояндексы не пробьются. :)

***

Хотя сам вопрос маленького трафика из-за того, что была заглушка — спорный. У меня есть примеры когда валялось непойми-что в индексе, а потом хорошо пошёл трафик.

fosko:
На первом сейчас в 3 мес 20 хостов (был 2 года закрыт в роботс), на втором сейчас уже 500, был свежерег.
Хочется думать, что это только из-за заглушки, потому, что это просто и всё объясняет. Но что если это не так? :)
fosko
На сайте с 14.05.2015
Offline
21
#14

В вебархиве чисто. ХЗ. Буду "посмотреть".

overnight
На сайте с 23.05.2008
Offline
262
#15

fosko, статья на тему: http://seoprofy.ua/blog/prodvizhenie-sajtov/probability

Ну это если запускаешь пачками. Лично для меня не актуально. Если много непоискового трафика, то доменные факторы нивелируются достаточно быстро.

serjoo
На сайте с 12.09.2011
Offline
389
#16
overnight:
Отдельные страницы закрытые в robots Google отправлет в сопли:

Блин, проиндексируйте мне ucoz. )

Бикос, зис ресульт ис нот эвейлебл.

Страницы в кэше гугла все же, или нет? ;)

Мультур..
fosko
На сайте с 14.05.2015
Offline
21
#17
overnight:
fosko, статья на тему: http://seoprofy.ua/blog/prodvizhenie-sajtov/probability

Ну это если запускаешь пачками. Лично для меня не актуально. Если много непоискового трафика, то доменные факторы нивелируются достаточно быстро.

Спасибо. Если честно большинство на таких "обкатанных" лучше всего и стартовали.

Magic Moment
На сайте с 23.08.2015
Offline
67
#18
fosko:
Гугл говорят игнорирует это. Да и яндекс тоже - в выдаче появляется страница "владелец предпочел скрыть..."

Он это не игнорирует. Это лишь твоя рекомендация для гугла, которую обычно он выполняет. У меня лишь единожды было, когда гугл проиндексировал страницу, что закрыта в роботсе, и по какой причине он это сделал- загадка.

IPXI
На сайте с 04.11.2015
Offline
126
#19

в .htaccess

RewriteCond %{REMOTE_ADDR} !ваш_IP

RewriteCond %{REQUEST_FILENAME} !-f

RewriteRule .* /closed.php [L]

а в closed.php

header('HTTP/1.1 503 Service Unavailable');

как только откроете, пойдёт индексация

[Удален]
#20
serjoo:
Страницы в кэше гугла все же, или нет?

https://www.google.ru/search?ie=UTF-8&hl=ru&q=%D1%83%D0%B1%D0%B8%D0%B9%D1%86%D0%B0%20%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81%D0%B0%20404&gws_rd=ssl

вам их не покажут, но робот их скачивает ;)

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий