DLE Robots

sunca
На сайте с 05.12.2010
Offline
77
875

Добрый день.

Ребята, как роботс на ДЛЕ по вашему правильней всего настроить?

Вот мой вариант:

User-agent: *

Crawl-delay: 10

Disallow: /cgi-bin/

Disallow: /*print

Disallow: /engine/

Disallow: /languages/

Disallow: /engine/go.php

Disallow: /user/

Disallow: /statistics.html

Disallow: /*subaction=userinfo

Disallow: /*subaction=newposts

Disallow: /*do=lastcomments

Disallow: /*do=feedback

Disallow: /*do=register

Disallow: /*do=lostpassword

Disallow: /*do=addnews

Disallow: /*do=stats

Disallow: /*do=pm

Sitemap: http://m.ru/sitemap.xml

User-agent: Yandex

Crawl-delay: 10

Disallow: /cgi-bin/

Disallow: /*print

Disallow: /engine/

Disallow: /languages/

Disallow: /engine/go.php

Disallow: /user/

Disallow: /statistics.html

Disallow: /*subaction=userinfo

Disallow: /*subaction=newposts

Disallow: /*do=lastcomments

Disallow: /*do=feedback

Disallow: /*do=register

Disallow: /*do=lostpassword

Disallow: /*do=addnews

Disallow: /*do=stats

Disallow: /*do=pm

Host: m.ru

Было ещё /newposts/ но решил убрать так как непонятно себя стал вести ЯВ, количество сссылок упало в 3 раза везде...

sunca добавил 26.04.2011 в 11:26

количество ссылок восстановилось...

Korew
На сайте с 31.12.2007
Offline
195
#1
sunca:
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm

Вот это все я заменяю 2 строками:

Disallow: /*do=

Disallow: /*subaction=

Еще рекомендую:

Disallow: /tags/

/newposts/ я бы вернул... Еще открываете корень сайта и вписываете в Disallow все файлы и папки которые там увидите, что б наверняка ))

Еще рекомендую:

Disallow: /*page/1
[Удален]
#2

А для чего закрывать Disallow: /tags/. Мне казалось, что так наоборот лучше и всегда теги прописывал для облака.

Disallow: /*page/1 - это как понимать? Для чего?

PM
На сайте с 12.02.2008
Offline
87
#3
alextrish:

Disallow: /*page/1 - это как понимать? Для чего?

Закрыть дубль с главной страницей

Angel OSHQ.cc
На сайте с 23.07.2007
Offline
225
#4

Кто знает, как быстро поисковики удаляют закрытые в robots.txt ссылки ? в гугл вебмастере пишет что запрещено а в выдаче есть

Безлимитный хостинг ( https://oshq.cc/unlimhost.html ) в NL от 0.5$. Аренда серверов во Франции ( https://oshq.cc/serverf.html ) от (15 евро)
[Удален]
#5
Angelys:
Кто знает, как быстро поисковики удаляют закрытые в robots.txt ссылки ? в гугл вебмастере пишет что запрещено а в выдаче есть

2-3 недели.

[Удален]
#6

Кто подскажет, нужно ли делать так или нет: Disallow: /tags/.

У меня на этих страницах сапа-ссылки и яша их индексирует на ура. Нужно ли считать их мусором?

Angel OSHQ.cc
На сайте с 23.07.2007
Offline
225
#7
alextrish:
Кто подскажет, нужно ли делать так или нет: Disallow: /tags/.

У меня на этих страницах сапа-ссылки и яша их индексирует на ура. Нужно ли считать их мусором?

все зависит от того какие у вас теги, если автогенераторы то лучше убрать. Если нормальные теги и у вас хороший СДЛ то можете оставить.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий