Robots.txt - как запретить индексировать диапазон страниц?

[Удален]
939

Возник вопрос как ПС Яндекс и Гугл запретить индексировать определенный диапазон страниц.

К примеру:

site.ru/id_1.html

site.ru/id_2.html

site.ru/id_[...].html

site.ru/id_100.html

site.ru/id_101.html

site.ru/id_102.html

site.ru/id_N.html

Требуется запретить от индексаци первые 100 страниц, возможности дописать доп подпись в URL нет. В роботсе перечислять все 100 страниц через строчку - тоже отпадает.

Возможно я что-то пропустил в мэнуале Яши "Использование robots.txt", но интересен и Гугл, чтоб оба не читали контент.

Есть возможность запретить через htaccess, но как корректно это сделать, чтоб ПС не ругались?

S2
На сайте с 07.01.2008
Offline
611
#1

Если 0 дописать в урл, то можно.

User-agent: Yandex

Disallow: /id_0*.html

Allow: /id_*.html

Запрещено:

site.ru/id_01.html

site.ru/id_02.html

site.ru/id_039.html

site.ru/id_0100.html

Разрешено:

site.ru/id_101.html

site.ru/id_102.html

site.ru/id_245.html

Или в ненужные можно метатег роботс вставлять.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
OneSeo
На сайте с 23.09.2009
Offline
41
#2

Str256, скажите, а зачем разрешать определенные страницы, если хватает только запрета ненужных?

Если недопонял - пошу прощения

ТИЦ 0-10-20-30-40. Каталоги. (/ru/forum/443562) Мой пасивный доход (http://www.sape.ru/r.CdwpYyjGZz.php) - практически ничего не делая, зарабатываю от 10$ в день Вместе и до конца!
kimberlit
На сайте с 13.03.2007
Offline
370
#3

удалено ...... неправильно прочёл условия

[Удален]
#4
kimberlit:
сорри .......

Ммм? Нельзя?

Debtor добавил 22.02.2010 в 17:07

Str256:
Если 0 дописать в урл, то можно.

Спасибо, попробуем таким способом, если программисту позволит это на движке организовать. =) Но вариант очень хороший.

П.С. Возможно есть еще что-нибудь вкусненькое?

S2
На сайте с 07.01.2008
Offline
611
#5
OneSeo:
Str256, скажите, а зачем разрешать определенные страницы, если хватает только запрета ненужных?

Да, можно оставить только:

User-agent: *

Disallow: /id_0*.html

P.S. Я пробовал разные варианты, Allow от другого осталось.

Debtor:
П.С. Возможно есть еще что-нибудь вкусненькое?
Str256:
Или в ненужные страницы можно метатег роботс вставлять.

http://hghltd.yandex.net/yandbtm?qtree=RyCa%2BffqqfPaoshs2W%2B%2FarDIIxH7fjxkp6g9wdJacFRsIIq37pOyfmegkCZufRduBax6XCyVouBTYYLnDfa0zGyABAKCwxOQufpZ3AlxfHmt4bPEunssMPjGncjqzNOR%2BDYEulpsbJmzioyI8KnSWNUsHJyASavv9OYamPf1wo1W8L0ZMx3FSCUqSq01A%2BzbRloC9ZqicaoJdu%2Be1oV%2FnUcNLOvI0gZeWEcYXu84496WkaKFISe63EXhvz0B8X7u3Frsm68x9gjoLovwk6bW2UyZmfqnuLTnJ7YB8GVCyglKvmZoRYCV5c8jUNdwjzOUMM6rpX22twBXKvqt7l868IolITgoWY22BfxkjkRpMNv0p7O0noDnJZWjWgu76nUBBDHEuCSNcAu1OJXxvwj5yqcX3R3vzJwQYmK2qDAWgHnTnjb08ymB8J9AaiIHP6CoBHhu5zYpA%2B9ef%2FSJpD7%2F48qw1C44dMCqC4niFR8mLka87W9GtAe7m7D72u19X%2Bk2vWot9Jf4WIFFYlPNp6yFC5DWydjesdQOq15oXejlADrkEei0jMn%2BWo6%2BRAjlL1z0KqR%2B%2F1P05KfUhDr2FCqMn62UnkQu751Gw6sAGzYPkDaWI2Hxov%2FKKDTrjAtQ5MJhhb21TVYF7pLTXwbl0F0SGQ%3D%3D&text=%EC%E5%F2%E0%F2%E5%E3%20robots&url=http%3A%2F%2Frobotstxt.org.ru%2FRobotsExclusion%2Fmeta%2F

OneSeo
На сайте с 23.09.2009
Offline
41
#6

Str256, спасибо.

[Удален]
#7
Str256:
http://hghltd.yandex.net/yandbtm?qtr...sion%2Fmeta%2F

Ух, действительно вкусняшка, спасибо большое, заодно и проверю работоспособность этого метода)

Всем еще раз спасибо. Тему можно закрывать.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий