Все вопросы по robots.txt

[Удален]
#1061

Miha Kuzmin (KMY), в случае полного запрета в роботсе, ты теряешь все плюшки от ссылочного и пф

в случае указания в Clean-param - ты указываешь роботу что существует страница без данных параметров и индексировать надо именно её

у варианта с канониклами есть ряд своих проблем:

1. трудность правильной настройки (основная на подавляющем количестве сайтов)

2. если каноническая страница недоступна, каноникл будет проигнорирован роботом

3. будет жраться квота на сканирование не канонических url (может быть проблемой на больших сайтах)

[Удален]
#1062

burunduk, але! Не рассказывай про "потерю пф" и "плюшки от ссылочного". В случае, когда его целенаправленно спамят (хотя странно, на партнерку похоже), там единственной плюшкой может минусинск прилететь. Поэтому лучше всего дизаллоу. Каноникал при спаме - явно не то, что нужно.

[Удален]
#1063
Miha Kuzmin (KMY):
плюшкой может минусинск прилететь

не прилетит ;)

[Удален]
#1064

burunduk, теоретически :) А практически все равно оч похоже на партнерку.

R4
На сайте с 01.10.2016
Offline
75
#1065

Здравствуйте.

Я составил robots для сайта (внизу указаны боты, чтобы сайт не посещали): https://goo.gl/PZ1qYW

Вопросы:

1. Корректно ли составлен robots.txt? Если есть замечания, то напишите.

2. Нет ли там каких-то пересечений (чтобы не получилось так, что для ботов перекрыл посещение сайта в Disallow: / , а в итоге перекрыл для всех поисковиков)?

RW
На сайте с 28.07.2014
Offline
31
#1066

Добрый день, уважаемые.

Недавно сменил движок и переехал с "заглушки" сделанной на WIX на ВебАсист.

На Виксе, как понимаете, сделать ничего было нельзя. На ВебАсист занялся всем нужным потихоньку, типа метаданных и статей (всё в работе). Но не даёт покоя сабж. Вот прям ничего про это знаю и не понимаю про то, что такое и что там должно быть в этом Robots.txt

Помогите пожалуйста сделать этот Robots.txt для сайта URL="https://viehali.ru"]https://viehali.ru

Спасибо!

[Удален]
#1067

Такая ситуация, есть страница http://alsana.kz/catalog/aksessuary_dlya_montazha/ и http://alsana.kz/catalog/aksessuary_dlya_montazha/filter/clear/apply/ они обе в индексе дублируют друг друга, у всех страниц категорий такая ситуация

В роботсе закрыл так Disallow: /*apply/ правильно ли

KA
На сайте с 28.05.2015
Offline
73
#1068

*/filter/*

можно и так

/*filter/

KH
На сайте с 08.12.2016
Offline
90
#1069

Добрый день помогите кто чем может настроить более менее правильно файл роботс для ПИ гугла и яндекса

Пациент значит mywebpc.ru

hard7
На сайте с 01.08.2009
Offline
92
#1070
воздух выдержит тех кто верит в себя...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий