ошибки сайта в яндекс вебмастере

EHEPGETIK
На сайте с 03.07.2009
Offline
53
1144

Здраствуйте!

У меня проблема, Яндекс вебмастер показывает слишком много ошибок, 835 штук и 750 ошибок с раздела engine/go.php?. Там пишет, что в файле robots.txt все ссылки запрещены к индексации

к примеру: там такие ссылки показывает "/engine/go.php?url=a...3BtJmFtcDt1c2VybmFtZT1BZG1pbg=="

может ли кто то помочь чем то?

M9vo4ka
На сайте с 04.07.2007
Offline
18
#1

А в роботсе что написано у Вас?

Тьма везде, но я не чахну.
EHEPGETIK
На сайте с 03.07.2009
Offline
53
#2

вот мой робот:

User-agent: *
Disallow: /*print
Disallow: /cache
Disallow: /backup
Disallow: /engine
Disallow: /language
Disallow: /templates
Disallow: /index.php?do=pm
Disallow: /user
Sitemap: http://mixeda.ru/sitemap.xml
Host: mixeda.ru
F
На сайте с 25.07.2007
Offline
116
#3

может раньше robots был другой?

да и с другой стороны зачем индексировать ссылки которые идут через редирект?

Apple iPod Touch (http://ipod-touch-max.ru/) - получи MAXимум!
EHEPGETIK
На сайте с 03.07.2009
Offline
53
#4

ну не знаю...

роботс.тхт был этот

и ошибки начали рости с каждым апом, было 500 ошибок а после вчерашнего апа стало 800...

M9vo4ka
На сайте с 04.07.2007
Offline
18
#5

ТС, так у Вас в роботсе стоит запрет на индексацию страницы /engine. Поэтому и выдает ошибку. В каждым апом кол-во ошибок растет оттого, что робот больше страниц обходит, которые принадлежает директории engine.

Ничего страшного в этом нет, главное, что в роботсе стоит запрет.

LeRKo
На сайте с 02.09.2008
Offline
14
#6

Насколько я знаю "Запрещено в robots.txt" не ошибка, а сведения к информации. Так что забейте

EHEPGETIK
На сайте с 03.07.2009
Offline
53
#7

хех...

спасибо! а то я уж разволновался немного...

LeRKo
На сайте с 02.09.2008
Offline
14
#8
Причины, по которым страница не загружается роботом, могут быть связаны не только с реальными ошибками сайта. Например, на страницах могут присутствовать ссылки на разделы сайта, загрузка из которых роботами запрещена в файле robots.txt. В этом случае робот следует указаниям robots.txt и не будет загружать страницу. Однако, поскольку ссылка могла быть дана ошибочно, или раздел мог быть ошибочно указан в robots.txt, на странице «Ошибки сайта» появится запись «Документ запрещен в файле robots.txt

http://help.yandex.ru/webmaster/?id=995372

WebAlt
На сайте с 02.12.2007
Offline
265
#9
EHEPGETIK:
вот мой робот:

User-agent: *

Disallow: /*print
Disallow: /cache
Disallow: /backup
Disallow: /engine
Disallow: /language
Disallow: /templates
Disallow: /index.php?do=pm
Disallow: /user
Sitemap: http://mixeda.ru/sitemap.xml
Host: mixeda.ru

Для DLE это лишнее:

Disallow: /cache

Disallow: /backup
Disallow: /engine
Disallow: /language
EHEPGETIK
На сайте с 03.07.2009
Offline
53
#10
WebAlt:
Для DLE это лишнее:

хм... я видел на многих сайтах ДЛЕ эти пункты

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий