robots.txt будет ли работать нормально?

IceHell
На сайте с 21.08.2010
Offline
95
346

Стоит CMS Битрикс, проблемы с индексацией. Сейчас сделал такой robots.txt, подскажите будет ли нормально индексироваться главная + 10 страниц. А все остальные страницы не будут проверяться роботом. (На данный момент Google проиндексировал 565 страниц, хочу это исправить)

User-agent: *

Allow: /index.php

Allow: /o_kompanii.php

Allow: /uslug/

Allow: /uslug/burenie/

Allow: /uslug/ochistka/

Allow: /uslug/otoplenie/

Allow: /oborud/

Allow: /oborud/obor_ochistka/

Allow: /oborud/obor_otoplen/

Allow: /info/stat/bur.php

Allow: /contact/

Disallow: /

Сайту уже 1,5 года. Вот то, что мне на данный момент нужно показать ПМ, а всё остальноё скрыть...

Собственно сайт: http://www.gidrostroy-sp.ru

З.Ы - Cайт только передан Веб-Мастеру, на содержание внимание не обращать.

Бары Москвы (http://www.gdebar.ru) - поиск развлечений по станциям метро в Москве.
Fr3d
На сайте с 29.05.2008
Offline
86
#1

дел..

я бы на вашем месте добавил на эти 10 страниц тег <meta name="robots" content="index" />, на все остальные noindex

Webmoney кредиты - это WMCoin.ru (http://wmcoin.ru)
S
На сайте с 15.08.2009
Offline
18
#2

Disallow: /

этой строкой запрещается индексация всего сайта

Постоянно продаю сайты с тиц и без (/ru/forum/649563)
IceHell
На сайте с 21.08.2010
Offline
95
#3
Fr3d:
если логически подумать то от такого роботса вообще не будет индексироваться сайт

я бы на вашем месте добавил на эти 10 страниц тег <meta name="robots" content="index" />, на все остальные noindex

Уверены ? Остальные не страницы, а какие то дубли Битрикс (там их 555 шт.)

faedrus
На сайте с 30.10.2008
Offline
158
#4
Fr3d:
если логически подумать то от такого роботса вообще не будет индексироваться сайт

поделитесь логикой...

Ушел на завод
IceHell
На сайте с 21.08.2010
Offline
95
#5
seognom:
Disallow: /

этой строкой запрещается индексация всего сайта

http://help.yandex.ru/webmaster/?id=996567 если смотреть сюда, то

Если для данной страницы сайта подходит несколько директив, то выбирается первая в порядке появления в выбранном User-agent блоке. Примеры:
User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'

faedrus
На сайте с 30.10.2008
Offline
158
#6

Fr3d, seognom, не вводите в заблуждение!

можно сократить кстати

User-agent: *

Allow: /index.php

Allow: /o_kompanii.php

Allow: /uslug

Allow: /oborud

Allow: /info/stat/bur.php

Allow: /contact/

Disallow: /

IceHell
На сайте с 21.08.2010
Offline
95
#7
faedrus:
Fr3d, seognom, не вводите в заблуждение!

можно сократить кстати

User-agent: *
Allow: /index.php
Allow: /o_kompanii.php
Allow: /uslug
Allow: /oborud
Allow: /info/stat/bur.php
Allow: /contact/
Disallow: /

Спасибо.

Просто в услугах может быть ещё страницы, которые мне сейчас не нужно индексировать. Можно обойти это так ?

Allow: /uslug/burenie/

А вообще этот способ уточнения индексации хуже для Яндекса или без разницы ? (по сравнению с свободным индексом)

cheredov
На сайте с 07.04.2011
Offline
125
#8
IceHell:
А вообще этот способ уточнения индексации хуже для Яндекса или без разницы ?

Ему без разницы. Даже работы роботу меньше.

Иван Чередов (http://ivan.cheredov.com/about/)
IceHell
На сайте с 21.08.2010
Offline
95
#9

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий