meta robots noindex

A
На сайте с 18.02.2011
Offline
22
290

<meta name="robots" content="noindex" /> для большого количества страниц (сотни тысяч) эффективен ?

K
На сайте с 31.01.2001
Offline
737
#1

А что вы подразумеваете под словом "эффективен"?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
A
На сайте с 18.02.2011
Offline
22
#2

Гуглил немного, но попалась фраза, что на большом количестве страниц лучше "meta robots noindex" не использовать.

Поэтому вопрос - нормально ли будет вставить тег в большое количество страниц - уйдут ли они из индекса или стоит подумать над robots.txt ?

K
На сайте с 31.01.2001
Offline
737
#3

Сначала, ясное дело, надо подумать над robots.txt .

admas:
но попалась фраза,

это смотря где она попалась. На сайте Гугла или одном из блогов одного из "сеошников".

A
На сайте с 18.02.2011
Offline
22
#4
Kost:
Сначала, ясное дело, надо подумать над robots.txt.

Подумаю, но допустим через robots.txt не реализовать запрет.

Kost:
это смотря где она попалась. На сайте Гугла или одном из блогов одного из "сеошников".

:)

Не помню, на серче, блоге . Гугл ничего про количество не пишет:

http://www.google.com/support/webmasters/bin/answer.py?answer=93710

Ответ понятен. Спасибо.

K
На сайте с 31.01.2001
Offline
737
#5
admas:
допустим через robots.txt не реализовать запрет.

Тогда делайте через метатег и ждите пару месяцев.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий