Все вопросы по robots.txt - 2

S
На сайте с 07.11.2016
Offline
23
#101

Я правильно понимаю, что корректно запись должна выглядеть так?

Disallow: /*/*/*?

Allow: /*/*/*/*

Валерий Байрон
На сайте с 27.12.2010
Offline
126
#102

Вебмастер Яндекс начал ругаться что нету Robots.txt ,хотя он был .

В ошибках было указано что в коде :

Disallow: /forum/index.php?act=Print

Disallow: /forum/index.php?act=calendar

Disallow: /forum/index.php?act=Stats

Disallow: /forum/index.php?act=Forward

Crawl-delay: 3

Clean-param: s&mode /forum/

Clean-param: forceautomobile

1)Host: www.rjevka.com

User-Agent: Googlebot

Crawl-delay: 5

Clean-param: forceautomobile

Clean-param: s

Clean-param: mode

2)Host: www.rjevka.com

User-Agent: Google

Crawl-delay: 5

Clean-param: forceautomobile

Clean-param: s

Clean-param: mode

3)Host: www.rjevka.com "

Два лишних "Host: www.rjevka.com" . Я удали два первых и остался только 3. Так можно делать ?

SEO ,крауд-маркетинг, трастовые ссылки в статьях и баннерах на личных сайтах. Телеграм для связи @italiy_uds Отзывы о моей работе https://goo-gl.me/OYdqK
lkm
На сайте с 16.03.2012
Offline
346
lkm
#103

Нет, нужно и третий удалить.

В сети миллионы текстов про robots.txt.

Но каждый раз люди творят какую-то дичь.

Host для Google прописывают, user-agent новые придумывают, не следят за новостями, ставят директивы crawl-delay, а потом жалуются, почему Google не любит мой сайт.

Валерий Байрон
На сайте с 27.12.2010
Offline
126
#104
lkm:
Нет, нужно и третий удалить.
В сети миллионы текстов про robots.txt.
Но каждый раз люди творят какую-то дичь.
Host для Google прописывают, user-agent новые придумывают, не следят за новостями, ставят директивы crawl-delay, а потом жалуются, почему Google не любит мой сайт.

я новичек и много не знаю.

Я удалил, так как и сегодня он ругался. Буду смотреть дальше.

А так в принципе все дальше верно ?

Валерий Байрон
На сайте с 27.12.2010
Offline
126
#105

ау, есть кто шарит ?

WebSuccess
На сайте с 09.06.2015
Offline
47
#106

Disallow: /shop/*

Allow: /shop/

Как сделать чтобы все производные от shop не индексировались, а сама страница shop индексировалась?

K
На сайте с 18.11.2009
Offline
98
#107
WebSuccess:

Как сделать чтобы все производные от shop не индексировались, а сама страница shop индексировалась?

Allow: /shop/$

Disallow: /shop/*

Шикарный хостинг. Скидка 10% по промокоду: KNRS (https://accounts.fozzy.com/aff.php?aff=1766)
P
На сайте с 19.09.2014
Offline
39
#108
lkm:
Нет, нужно и третий удалить.
В сети миллионы текстов про robots.txt.
Но каждый раз люди творят какую-то дичь.
Host для Google прописывают, user-agent новые придумывают, не следят за новостями, ставят директивы crawl-delay, а потом жалуются, почему Google не любит мой сайт.

Директива Host для Яндекса теперь тоже не нужна))

Как мы писали ранее, мы отказываемся от директивы Host. Теперь эту директиву можно удалять из robots.txt, но важно, чтобы на всех не главных зеркалах вашего сайта теперь стоял 301-й постраничный редирект. Вебмастерам, которые, по нашим данным, ещё не установили перенаправление, мы отправили соответствующее уведомление.
Нет подписи
disputin
На сайте с 01.08.2017
Offline
20
#109

Google кладёт на лопатки яндекс без боя. Слабые работники работают в яндексе. Низкая конкуренция, ни кто стараться не хочет.

Недавно переехал на безопасный протокол, уважаемый Google после всех настроек , сайт принял нормально, за-то яндекс - до сих пор ни как не хочет работать по новому протоколу корректно. Всегда твердил, что если работать, то только на иностранцев. Наши как дубы, только делают вид что умные.

V1
На сайте с 08.05.2012
Offline
55
#110

Добрый день. Давно не делал сайты. Сейчас запустил несколько на вордпрессе и оставил для индексации только нужные страницы и форум на IPB запустил. Вот думаю нужно в роботсе Disallow прописывать для кучи мусорных страниц форума или лучше не трогать?

Почему есть сомнения - потому, что раньше без этого форумы нормально индексировались, поисковики знают движок и думаю представляют что это такое. Вот думаю как бы хуже не наделать и может не торогать его?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий