Правильный robots.txt для нового сайта

12
V8
На сайте с 25.03.2013
Offline
4
689

Добрый вечер! Вот создаю новый сайт, и естественно нужен robots.txt. С последним сайтом были проблемы с ним, точнее был неправильно составлен этот файл, теперь не хочу того же и с новым сайтом. Подскажите пожалуйста наиболее правильный robots, чтобы он закрывал дубли и ненужные страницы для роботов ПС.

Crazy & Co.
На сайте с 25.01.2007
Offline
221
#1
User-agent: *
Disallow:
Host: searchengines.ru
Подскажите пожалуйста наиболее правильный robots, чтобы он закрывал дубли и ненужные страницы для роботов ПС.

А CMS мы должны угадать? Может там вовсе нет дублей?

V8
На сайте с 25.03.2013
Offline
4
#2
Crazy & Co.:
А CMS мы должны угадать? Может там вовсе нет дублей?

Да, забыл указать. CMS - Wordpress.

Crazy & Co.
На сайте с 25.01.2007
Offline
221
#3
Victor87:
Да, забыл указать. CMS - Wordpress.
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Disallow: /tag/
Host: searchengines.ru

10 символов.

V8
На сайте с 25.03.2013
Offline
4
#4

У меня прошлый файл был вроде такой же, только ещё для Яндекса отдельно было в нём, и после слово host - Sitemap

Crazy & Co.
На сайте с 25.01.2007
Offline
221
#5
Victor87:
У меня прошлый файл был вроде такой же, только ещё для Яндекса отдельно было в нём, и после слово host - Sitemap

И в чем проблема?

donc
На сайте с 16.01.2007
Offline
682
#6

Для нормально настроенного сайта этот файл не нужен.

В том числе и для ВП.

Причем те версии, которые тупо копипастят себе блогеры с блога на блог - особенно с запретом к индексации rss - нереально доставляют.

Ибо это костыль.

Точка.

Продвижение сайтов от 25 000 в мес, прозрачно, надежно https://searchengines.guru/ru/forum/818412 , но не быстро, отзывы
V8
На сайте с 25.03.2013
Offline
4
#7
Crazy & Co.:
И в чем проблема?

Может для Яндекса отдельно не стоит.

---------- Добавлено 04.04.2013 в 21:55 ----------

donc:
Для нормально настроенного сайта этот файл не нужен.
В том числе и для ВП.
Причем те версии, которые тупо копипастят себе блогеры с блога на блог - особенно с запретом к индексации rss - нереально доставляют.
Ибо это костыль.
Точка.

Вы уверенны в этом? А как вы закроете все дубли и ненужны файлы?

S
На сайте с 06.08.2008
Offline
130
#8

Лучший робот такой:

User-agent: *
Disallow: /
Crazy & Co.
На сайте с 25.01.2007
Offline
221
#9
spiderbuber:
Лучший робот такой:

Вот зачем такое новичкам советовать? Типа смешно?

donc
На сайте с 16.01.2007
Offline
682
#10
Victor87:
Вы уверенны в этом? А как вы закроете все дубли и ненужны файлы?

абсолютно. Вот что сам гуглер говорит - а я склонен ему верить иногда :)

Но и без него знаю, что все надо настраивать в мета - будь это мета ноиндекс или каноникал

СЕО плагин и прямые руки - и роботс не нужен.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий