Все вопросы по robots.txt

G
На сайте с 24.11.2014
Offline
15
#701

здравствуйте.

Подскажите, пожалуйста, корректно ли составлен robots.txt?

User-Agent: Yandex

Disallow: /admin
Disallow: /form

User-Agent: Google
Disallow: /admin
Disallow: /form

User-Agent: *
Disallow: /admin
Disallow: /form

Host: tehnostroyproject.ru

Просто валидатор в Яндекс Вебмастере показывает, что работают только строчки:

User-Agent: Yandex

Disallow: /admin
Disallow: /form
Host: tehnostroyproject.ru

А остальные не показаны 😕

Оптимизайка
На сайте с 11.03.2012
Offline
396
#702

Всё правильно

⭐ BotGuard (https://botguard.net) ⭐ — защита вашего сайта от вредоносных ботов, воровства контента, клонирования, спама и хакерских атак!
altezzik
На сайте с 06.11.2011
Offline
247
#703
govegango:
А остальные не показаны

Яндекс показывает только те строки, которые учитывает он. Остальные не для него.

Muhal4
На сайте с 01.07.2008
Offline
79
#704

Почему вы закрываете отдельно для гугла, отдельно для яндекса, а потом для всех? не проще сделать просто

User-Agent: *
Disallow: /admin
Disallow: /form

Host: tehnostroyproject.ru
LinkBoss.net - Трастовые ссылки для увеличения трафика в 10 раз! (http://linkboss.net/)
I9
На сайте с 14.05.2010
Offline
73
#705
govegango:
здравствуйте.
Подскажите, пожалуйста, корректно ли составлен robots.txt?
User-Agent: Yandex

Disallow: /admin
Disallow: /form

User-Agent: Google
Disallow: /admin
Disallow: /form

User-Agent: *
Disallow: /admin
Disallow: /form

Host: tehnostroyproject.ru

Просто валидатор в Яндекс Вебмастере показывает, что работают только строчки:
User-Agent: Yandex

Disallow: /admin
Disallow: /form
Host: tehnostroyproject.ru

А остальные не показаны 😕

Стоп, а разве пустые строки в robots.txt допускаются спецификацией?

R_Tem
На сайте с 21.08.2008
Offline
137
#706

Правильнее так:

User-Agent: Yandex

Disallow: /admin

Disallow: /form

Host: tehnostroyproject.ru

User-Agent: Google

Disallow: /admin

Disallow: /form

User-Agent: *

Disallow: /admin

Disallow: /form

K
На сайте с 24.10.2011
Offline
62
#707

Вы забыли указать путь к файлу sitemap.xml

User-Agent: Yandex

Disallow: /admin

Disallow: /form

Host: tehnostroyproject.ru

Sitemap: http: //tehnostroyproject. ru/sitemap. xml

User-Agent: Google

Disallow: /admin

Disallow: /form

Sitemap: http: //tehnostroyproject. ru/sitemap. xml

User-Agent: *

Disallow: /admin

Disallow: /form

Sitemap: http: //tehnostroyproject. ru/sitemap. xml

P.S. Пробелы убрать не забудьте

G
На сайте с 24.11.2014
Offline
15
#708

Благодарю!

SI
На сайте с 04.08.2015
Offline
7
#709

Подскажите, есть ли разница в деление файла на разных роботов и составление файла для всех? Я имею ввиду (пример):

User-Agent: Yandex

Disallow: /admin

Disallow: /form

Host: abc.ru

Sitemap: http://abc.ru/sitemap.xml

User-Agent: Google

Disallow: /admin

Disallow: /form

Sitemap: http://abc.ru/sitemap.xml

User-Agent: *

Disallow: /admin

Disallow: /form

Sitemap: http://abc.ru/sitemap.xml

или

User-Agent: *

Disallow: /admin

Disallow: /form

Host: abc.ru

Sitemap: http://abc.ru/sitemap.xml

Можете объяснить в каких случаях лучше использовать тот или иной вариант? Т.к. я разницы сейчас не вижу.

AJ
На сайте с 04.07.2016
Offline
7
#710

Привет всем!

Прошу помощи. Некоторые страницы закрыты для индексации в robots.txt. Нужно открыть 4 закрытых страницы. Делается это в FilleZilla.

У меня эта прога пока не может соединиться с сервером. Вопрос -

Если филязиля не работает (нет соединения с сервером), то может быть сработает другой вариант для того, что бы разрешить к индексации нужные страницы сайта в robots.txt:

1. Скачал с хостинга файл robots.txt

2. открыл его в notepad++

3. удалил строки тех страниц, которые нужно открыть для индексации

Например, Disallow: /nashi-preimushestva/otzyvy-i-blagodarnosti.html

4. удалить с хостинга файл robots.txt

5. загрузить на хостинг вместо удаленного robots.txt исправленный файл robots.txt

Это сработает? Страницы откроются для индексации?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий