настройка robots.txt под гугл

12
123av
На сайте с 29.06.2004
Offline
168
1358

как robots.txt натроить так , чтобы гугл , мсн и яху боты заходили не чаще чем раз в неделю ?

Murdoc (msk)
На сайте с 21.11.2005
Offline
146
#1

опаааааа!!!! Наверно ваш вопрос ошибочен.

webcat
На сайте с 19.10.2005
Offline
137
#2

может это спасёт?

<META NAME="revisit-after" CONTENT="7 days">

Но только с Гуглем эдесь сложно... 😎

Murdoc (msk)
На сайте с 21.11.2005
Offline
146
#3
webcat:
может это спасёт?
<META NAME="revisit-after" CONTENT="7 days">

Этот тэг вообще безполезен т.к поисковые машины нельзя заставить приходить на сайты по расписанию!

webcat
На сайте с 19.10.2005
Offline
137
#4
поисковые машины нельзя заставить приходить на сайты по расписанию

вот и я о том же. Но если человек вдруг новую область деятельности для robots.txt нашел, то хоть на этот тэг сослаться - на безрыбье и рак рыба

Sla_Dom
На сайте с 18.02.2006
Offline
252
#5
123av:
не чаще чем раз в неделю

это ж надо, первый раз встречаю такую просьбу :)

Ctulhu
На сайте с 21.05.2005
Offline
222
#6

autodeleted

webcat
На сайте с 19.10.2005
Offline
137
#7

Ctulhu, зачот и 10 греев

123av
На сайте с 29.06.2004
Offline
168
#8

я все понял , стебать не обязательно.

M
На сайте с 21.11.2004
Offline
230
#9
webcat:
может это спасёт?
<META NAME="revisit-after" CONTENT="7 days">

Данную мету лучше не использовать вообще.

Продвигаю домены руками (http://roke.ru)
SZ
На сайте с 17.08.2005
Offline
63
#10

Можно реализовать, но только если делать robots.txt через php

Получаем user-agent, допустим гугль. Смотрим в базе, если последний раз был дольше чем неделю назад, выдаем ему robots разрешающий индексацию, если меньше - то запрещающий.

Нужно только сделать две таблицы: 1 - список соответствий user-agent для каждого поисковика, 2 - список поисковиков и дата их последнего заглядывания.

Соответственно первая таблица заполняется вручную (причем нужно учесть, что не все поисковые боты - индексируют, у того же яндекса их целая уйма. а учесть нужно только индексирующих.

Вторая таблица - обновляется скриптом, который проверяет user-agent и если это поисковик, то обновляет дату посещения сайта для этого поисковика. Скрипт этот нужно подключать на каждой странице.

Есть у этого метода много минусов, но поставленную задачу он решает.

Зы. В первую таблицу можно ещё пихнуть разрешающий и запрещающий robots.txt для данного поисковика, так будет проще =)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий