K. Ermakov

K. Ermakov
Рейтинг
328
Регистрация
10.12.2004

MaulNet, посмотрите здесь:

http://www.robotstxt.org/wc/norobots.html

http://www.google.com/support/webmasters/bin/answer.py?answer=40360&topic=8846

Как я понял, если уж используете robots.txt, то по крайней мере две конструкции - User-agent и Disallow быть должны.

zero2006:
буду менятся
ссылками с всеми подряд, то меня на yandex забанят?

По стуку оперативно.

zero2006:
Банит только yandex за ссылко-помойки или другие поисковики (зарубежные, русские)?

Недавно обсуждалась тема про линкаторные сайты в гугле. Воспользуйтесь, пожалуйста, поиском.

Маленькая фея:
Я сделала такой файл
User-agent: *
Host: littlefairy.ru

Насколько я помню, строка с Disallow должна быть в любом случае. Даже если Вы ничего не запрещаете к индексации.

dirol:
СУПЕР!
Спасибо

Заезжайте погулять по городу, пока лето. :)

Лучшее время для прогулок по Кронштадту!

Не совсем чтобы Питер, но район - Кронштадт

http://gallery.kotlin.ru

Вот чего мне прямо сейчас не хватает: модуль анализатор логов; поисковые роботы. Очень хочется иметь возможность сортировать по коду отклика (или видеть только конкретный код, в частности, 404).

miki:
склоняюсь к утверждению Ермакова с не большими поправками

С какими? :)

wilelf:
Да, именно так

Потому что в расчёте тица это всё-таки будут разные сайты (как мне тут недавно прояснили :) )

Luvila, это Вы SEO-расширение для Firefox поставили :)

Всего: 6032