sitemap двадцатьпять

123 4
D
На сайте с 12.04.2004
Offline
68
drg
#11
Str256:
robots.txt нормально составить...

КАК?

semenov:
А в чем собственно проблема-то?

КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.

S2
На сайте с 07.01.2008
Offline
611
#12
drg:
КАК написать в роботьсе так чтобы роботы сканировали только ситемап и выкидывали бы остальные страницы.

Никак. Надо запретить все ненужные страницы.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
D
На сайте с 12.04.2004
Offline
68
drg
#13
Str256:
Никак. Надо запретить все ненужные страницы.

запретить лишние страницы не пойдеть (их через чур много)

Никак - что вообще никак, никак???😕😕😕

DiAksID
На сайте с 02.08.2008
Offline
236
#14

когда "узаконивали" директивы роботса о сайтмэпах и речи не было

директиву сайтмап в стандарт то ввели года два (?) назад.

и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...

show must go on !!!...
S2
На сайте с 07.01.2008
Offline
611
#15
drg:
запретить лишние страницы не пойдеть (их через чур много)

По маске запрещайте или 404 в хтакцессе отдавайте. Короче сайт давайте сюда выкладывайте и примеры урл, что надо запретить. Может проще структуру урл поменять, чтоб ненужные в отдельный кластер выделить.

D
На сайте с 12.04.2004
Offline
68
drg
#16
DiAksID:
когда "узаконивали" директивы роботса о сайтмэпах и речи не было
директиву сайтмап в стандарт то ввели года два (?) назад.
и по идее - "закон обратной силы не имеет": старые директивы должны обрабатываться по старому, новые - только вносят новое, не меняя старое...

Если следовать такой логике, тогда получается что код в моем первом посту корректный; получается что если в роботсе все запретить, но строка о ситемап присутствует, то поисковик должен индексировать указанные URL, ведь ситемап там не просто так указан. (плюс еще в описаниях гугла написано, что ему пох на все, если присутствует строка Sitemap: xxx.xml) Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.

DiAksID
На сайте с 02.08.2008
Offline
236
#17
drg:
Если следовать такой логике...

блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?

S2
На сайте с 07.01.2008
Offline
611
#18
drg:
Блин, кто бы мог точно ответить, чтобы я не запортачил сайт своими экспериментами.

/ru/forum/comment/5700965

D
На сайте с 12.04.2004
Offline
68
drg
#19
DiAksID:
блин ;) если следовать моей логике то - указание всего лишь положения сайтмепа не должно отменять предыдущей директивы на запрет индексации всего сайта... что не понятно то?

Если не отменяется директива

Disallow: /

и все страницы запрещаются, тогда новая дериктива Sitemap

Sitemap: sitemap.xml

- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.

drg добавил 27.10.2009 в 21:44

читал. но не уверен в Вашей правоте.

S2
На сайте с 07.01.2008
Offline
611
#20
drg:
Если не отменяется директива
Disallow: /
и все страницы запрещаются, тогда новая дериктива Sitemap
Sitemap: sitemap.xml
- разрешает индексировать указанные страницы в sitemap.xml, новая директива сильнее, правильно? ппц.

Disallow: / # запрет доступа к сайту - робот отвернёт назад, что там дальше написано смотреть не будет - так понятно???

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий