Как закрыть от публичного просмотра роботс?

123
wwwwww
На сайте с 29.04.2011
Offline
195
#11
sp1f0x:
Сомневались малость, но теперь успешно сделали + роботы уже прошлись норм все!

Ждем через пару-тройку месяцев отчет. Главное чтоб боты не заглянули со специфичных адресов и юзерагентами. ;)

Видишь? Свободная подпись.
sp1f0x
На сайте с 04.12.2011
Offline
8
#12
wwwwww:
Ждем через пару-тройку месяцев отчет. Главное чтоб боты не заглянули со специфичных адресов и юзерагентами. ;)

ДА нет все норм думаю будет... Вычислили спектр IP по которым заходят.. ну посмотрим. через месяцок что будет

M
На сайте с 24.10.2011
Offline
173
#13

sp1f0x, ну и как, много адресов в спектре?

SeVlad
На сайте с 03.11.2008
Offline
1609
#14
sp1f0x:
ДА нет все норм думаю будет...

ну-ну.. :) Думать оно конечно не помешает.. Особенно о том, что роботы меняют ИП

wwwwww:
Ждем через пару-тройку месяцев отчет.

Скорее всего появится - "чего это мой супер СДЛ ПСы забанили?"

wwwwww:
Главное чтоб боты не заглянули со специфичных адресов и юзерагентами.

рано или поздно это случится.. :)

michaek:
много адресов в спектре?

тоже интересно.

Помнится, года 2 назад видел списочек сотни на полторы одного гугла :)

ТС, задача защиты "секретных" каталогов решается ОЧЕНЬ просто - через хтацесс разрешается доступ только с твоих ИП (как вариант).

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
R
На сайте с 17.11.2011
Offline
22
#15

rule для htaccess, который будет редиректить на php-скпипт и gethostbyaddr() в скрипте, думаю, поможет ТСу.

домашняя страница - google.com.ua
sp1f0x
На сайте с 04.12.2011
Offline
8
#16

Сделали в общем двумя вариантами, через IP и через htaccess посмотрим к чему приведет (экспериментировать ведь тоже надо :))

[Удален]
#17

sp1f0x, стук и бан - за клоакинг :)

Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#18

Если надо закрыть от индексации некую папку, адрес которой не хочется явно палить в robots.txt, то можно использовать маску урла.

Например админка сайта живет по адресу

http://<сайт>/administrator/index.php

В robots.txt

пишем

User-agent: Yandex
Disallow: /admin

Профит.

sp1f0x
На сайте с 04.12.2011
Offline
8
#19
Алексей Барыкин:
Если надо закрыть от индексации некую папку, адрес которой не хочется явно палить в robots.txt, то можно использовать маску урла.

Например админка сайта живет по адресу


В robots.txt
пишем


Профит.

Суть изначально в том, что нужно вообще закрыть роботс, чтобы он не виден был никому вообще (кроме ПСов)

[Удален]
#20
sp1f0x:
Суть изначально в том, что нужно вообще закрыть роботс, чтобы он не виден был никому вообще (кроме ПСов)

и все желающие смогут его посмотреть http://webmaster.yandex.ru/robots.xml :)

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий