Правильно ли составлен роботс.txt

Z9
На сайте с 13.01.2009
Offline
23
475

Суть такая.

Сайту этому месяц. в гугле был давно..

Проиндесировались только отдельные страницы.. все почти новости статьи и список магазинов.

другие страницы не проиндексировались.

вот роботс что надо индексить:

Allow: /catalog/11-ss/906-ff/

Allow: /catalog/11-dd/1752-gh/

Allow: /catalog/11-gg/1777-dh/

Allow: /catalog/11-hh/141-fd/

Allow: /catalog/11-jj/52453-gf/

Allow: /news

Allow: /articles

Allow: /shops

Dissalow: /

далее.

--catalog/11-jj/52453-gf/ может слешы в этих, в конце, лишние?

почти все shops/articles/news/ проиндексировались . а вот эти не хотят..таких 70 штук в роботс.

пути раньше были другими. одни цифры. потом прогер что то подправил в скрипте. и стали такими. может ещё в этом дело? были вроде 11.php?asdff что то типа этого.

[umka]
На сайте с 25.05.2008
Offline
456
#1

В robots.txt нет директивы 'Allow'. Есть только 'Disallow'.

То есть, вот этим вот:

Dissalow: /

Вы запрещаете индексировать весь свой сайт, и удивительно, что что-то проиндексировалось. Возможно, это из-за отсутствия 'User-agent'.

Чтобы разрешить всем роботам индексить сайт, просто удалите robots.txt или оставьте пустым или напишите в нём:

User-agent: *

Disallow:
Лог в помощь!
A3
На сайте с 31.12.2009
Offline
72
#2

Dissalow: /

-запрещение сайта индексации с корневого каталога

Управление инвестициями, https://alpari.com/ru/investor/pamm/410087/ (https://alpari.com/ru/investor/pamm/410087/?partner_id=1245193)подробнееAskrinvest.ru (http://askrinvest.ru) Компьютерные игры (http://pc-games.su)
T.R.O.N
На сайте с 18.05.2004
Offline
314
#3
[umka:
]В robots.txt нет директивы 'Allow'. Есть только 'Disallow'.

Не совсем так. Яша ее поддерживает

http://help.yandex.ru/webmaster/?id=996567#996571

zend921, Вам стоит указывать для какого бота Вы это описываете. Ведь каждый бот имеет специфические параметры, которые поддерживает только он

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
S
На сайте с 28.10.2005
Offline
296
#4
zend921:

Allow: /catalog/11-ss/906-ff/
Allow: /catalog/11-dd/1752-gh/
Allow: /catalog/11-gg/1777-dh/
Allow: /catalog/11-hh/141-fd/
Allow: /catalog/11-jj/52453-gf/
Allow: /news
Allow: /articles
Allow: /shops
Dissalow: /
.

Зачем такие мутки? Морда в индексе не нужна?

Z9
На сайте с 13.01.2009
Offline
23
#5

Все это я делаю только под гугл

Вот то что быстро накапал.

http://blog.dimok.ru/optimizatsiya-robots-txt-dlya-wordpress

Allow и Disallow

"Разрешается, и, соответственно, запрещается доступ к некоторым разделам сайта, либо к всему ресурсу целиком. Allow поддерживается только Яндексом и Гуглом."

http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449

вот тест:

Строка Allow: /*?$ разрешает доступ ко всем URL-адресам, оканчивающимся знаком вопроса (то есть ко всем URL-адресам, которые начинаются с названия домена и содержат цепочку, заканчивающуюся на ?, после которого нет других символов).

http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449

Например, робот Googlebot поддерживает расширенное определение стандартного протокола robots.txt. Он распознает директивы "Allow:", а также некоторые типы соответствия шаблону.

"Зачем такие мутки? Морда в индексе не нужна?"

User-agent: Googlebot

Allow: /index.php

морда прописана. не все скопировал.

Зачем такие муки?.. просто не уникальный контент на пагах, я его закрыл для индексации. а что уникальное открыл.

zend921 добавил 19.01.2010 в 12:30

одну ошибку нашел. надо вместо Dissalow: / - Disalow: / ..

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий