Поисковики проиндексировали служебные файлы.

ВC
На сайте с 02.02.2006
Offline
463
727

В корне сайта имеется несколько рнр-файлов, предназначенных исключительно для сбора статистики. На них нет ссылок и они не используются при просмотре сайта, а вызываются админом сайта только для того, чтобы собрать сведения о посетителях и продажах. И когда я их писал, то мне и в голову не могло прийти, что поисковики их проиндексируют и они будут известны неопределенному кругу лиц, которые могут ими воспользоваться и, например, все стереть (имеется файл очистки).

Однако Яндекс и Гугль как-то их нашли.

И в этой связи у меня два вопроса:

1. Проштудировав сайт и инструкцию по составлению роботса, я понял, что в нем не предусмотрена возможность запретить к индексации все находящиеся в корне файлы с расширением рнр. Видимо, придется их перечислять в роботсе поименно и полностью, поскольку в их именах нет схожих элементов, кроме расширения рнр.

Так?

2. Вылетят ли файлы из индекса после запрета в роботсе? Или, поскольку они уже проиндексированы, там и останутся на неопределенный срок (месяцы, годы)?

(В яндексе можно ускорить их исключение, но не в других поисковиках).

S2
На сайте с 07.01.2008
Offline
611
#1
которые могут ими воспользоваться и, например, все стереть (имеется файл очистки).

Без доступа к ftp интересно каким образом?

Вылетят ли файлы из индекса после запрета в роботсе?

Ещё их надо удалить тут http://webmaster.yandex.ru/delurl.xml

Гугл понимает выборочный запрет файлов с определённым расширением:

http://www.google.ru/support/webmasters/bin/answer.py?answer=40367&topic=8846

Яндекс вроде разрешает использовать директиву Allow: http://help.yandex.ru/webmaster/?id=996567

Но я не уверен в этом, так как в других местах пишут обратное.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
ВC
На сайте с 02.02.2006
Offline
463
#2
Str256:
Без доступа к ftp интересно каким образом?

Имеется файл, запуск которого очищает всю набранную статистику.

Сейчас роботс имеет такой вид:

User-agent: *

Disallow: /stat-pos.php

Disallow: /stat-pos-del.php

Disallow: /stat-pos-del2.php

Disallow: /stat-pos-podr.php

User-agent: Yandex

Host: site.ru

Проверяя его работу сервисом Яндекса, я получаю сообщение, что файл stat-pos.php будет проиндексирован, ибо яндекс работает только с двумя последними строками. Как я понимаю, это означает, что директива

User-agent: *

игнорируется.

Так?

S2
На сайте с 07.01.2008
Offline
611
#3

Вы тут смотрели? http://www.yandex.ru/cgi-bin/test-robots

ВC
На сайте с 02.02.2006
Offline
463
#4

Да, смотрел. И сервис не дал запрещающих правил.

А вот так

User-agent: *

Disallow: /stat-pos.php

Disallow: /stat-pos-del.php

Disallow: /stat-pos-del2.php

Disallow: /stat-pos-podr.php

User-agent: Yandex

Disallow: /stat-pos.php

Disallow: /stat-pos-del.php

Disallow: /stat-pos-del2.php

Disallow: /stat-pos-podr.php

Host: site.ru

сервис перечислил 4 правила.

Вот я и думаю: неужели надо все строки писать в двух вариантах - один персонально для Яндекса и другой для User-agent: * ?

А может, и для гугля надо персонально?

S2
На сайте с 07.01.2008
Offline
611
#5

Говорят этот сервис глючит, более точно видно через панель вебмастера. Мне кажется, что глюги из-за нижнего блока. У меня он один(я верхний имею ввиду) и его хватает. Для гугла не надо, ещё третий писать..

СКОРПИОН
На сайте с 05.01.2006
Offline
120
#6
Владимир-C:
Однако Яндекс и Гугль как-то их нашли.

В корневом .htaccess включать директиву Options -Indexes . Всегда и везде.

Иначе когда-нибудь сделают "мучительно больно"...

• Контекстные ссылки с внутренних страниц навсегда (/ru/forum/370882) • Качественные сайты для заработка на контекстной рекламе и ссылках
K
На сайте с 31.01.2001
Offline
737
#7
Владимир-C:
Имеется файл, запуск которого очищает всю набранную статистику.

Вам бы лучше ограничить запуск этих файлов по паролю или IP. Нельзя же такие дыры оставлять. И robots.txt тут вообще ни при чем.

Сложите все такие файлы в папочку, а папочку закройте на пароль через тот же .htaccess и .htpasswd.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
organic
На сайте с 07.11.2004
Offline
141
#8

Владимир-C, если это из Вашего Хуиза

phone: +7 916 *******

e-mail: ******@list.ru

e-mail: ***@bk.ru

Обязательно свяжитесь с модером раздела, пусть посты Ваши поправит немного

Yeah, well, I'm gonna go build my own theme park, with blackjack and hookers. In fact, forget the park!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий