Все вопросы по robots.txt - 2

X
На сайте с 08.05.2012
Online
111
#271

Блин, теперь появилась проблема с другой стороны:

Конструкция вида, запрещает индексацию дублей категорий, но также запрещает и индексацию объявлений:(

Disallow: /*/real-estate/

Allow: /ru/real-estate/

Влажные мечты, но может можно как-то сделать и подобное?

https://edc.sale/ru/real-estate/ - разрешено к индексации

https://edc.sale/ru/moskva/real-estate/ - запрещено к индексации

https://edc.sale/ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-13918.html - разрешено к индексации

Если нельзя через robots, может быть можно через htaccess? У кого какие мысли? Готовы даже дать небольшое вознаграждение за решение:)

L0
На сайте с 15.04.2015
Offline
76
#272
xsignes:
Блин, теперь появилась проблема с другой стороны:

Конструкция вида, запрещает индексацию дублей категорий, но также запрещает и индексацию объявлений:(

Disallow: /*/real-estate/
Allow: /ru/real-estate/

Влажные мечты, но может можно как-то сделать и подобное?

https://edc.sale/ru/real-estate/ - разрешено к индексации
https://edc.sale/ru/moskva/real-estate/ - запрещено к индексации
https://edc.sale/ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-13918.html - разрешено к индексации

Если нельзя через robots, может быть можно через htaccess? У кого какие мысли? Готовы даже дать небольшое вознаграждение за решение:)

если прописывать с регулярками, вычленяя нужный набор символов, очень вероятно будет конфликт из-за вашей структуры урл.

если страниц не мильон, то захерачить в роботсе абсолютные урл всех страниц. какие заблочить, какие открыть. Notepad++ вам в помощь

Allow: /ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-13918.html

Allow: /ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-100500.html

Disallow: /ru/moskva/real-estate/

Disallow: /ru/moskva/real-estate-5446546/

самое очевидное.

---------- Добавлено 19.02.2019 в 12:19 ----------

Ingref:
Disallow: /*/real-estate/
Allow: /ru/real-estate/

* значит любой набор символов.. эти две строки противоречат друг другу по сути.

Спецсимвол * означает любую (в том числе пустую) последовательность символов. Примеры:

изучите

оптимальное решение проблемы - это добавление мета тега noindex, follow в хедаре вашего сайта. обратиться к программисту толковому.

Да, я опасен! Я говорю вам - правду
Станислав Романенко
На сайте с 05.09.2007
Offline
325
#273
xsignes:
Влажные мечты, но может можно как-то сделать и подобное?

https://edc.sale/ru/real-estate/ - разрешено к индексации
https://edc.sale/ru/moskva/real-estate/ - запрещено к индексации
https://edc.sale/ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-13918.html - разрешено к индексации

Disallow: /*/*/real-estate/$

Allow: /ru/real-estate/

Leks007:
* значит любой набор символов.. эти две строки противоречат друг другу по сути.

Нет:


Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно.

То есть при запросе урла https://site.com/ru/real-estate/ будет применяться только директива Allow, потому что она длиннее. А для всех остальных будет Disallow, потому что они не подпадают под условие Allow.

Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
X
На сайте с 08.05.2012
Online
111
#274

Работает! Помимо лайка, можно чуть-чуть отблагодарить финансово?) Скиньте в ЛС реквизиты что имеется)

lustoff
На сайте с 14.10.2011
Offline
76
#275
Ingref:
Disallow: /*/*/real-estate/$
Allow: /ru/real-estate/


Нет:

То есть при запросе урла https://site.com/ru/real-estate/ будет применяться только директива Allow, потому что она длиннее. А для всех остальных будет Disallow, потому что они не подпадают под условие Allow.

Здравствуйте. Подскажите, пожалуйста, что-ли поменялась логика составления robots.txt? Раньше вроде не ругался робот на недоступность ресурсов, теперь появились ошибки, мол заблокирован в robots.txt

Например такой урл https://04744.biz/components/com_adsmanager/images/new.gif

Инструмент проверки говорит, что заблокирован правилом

Disallow: /components/

ниже в этом блоке

Allow: /*.gif$

Вроде ж раньше работало.

В моем случае сначала срабатывает Allow: /*.gif$, потому что короче, а потом Disallow: /components/?

https://04744.biz (https://04744.biz) - доска объявлений Умани. Вы уверены, что ваше мнение не навязано другими? (http://www.youtube.com/watch?v=CX6VvoTo0Qc&feature=related)
[Удален]
#276

lustoff, а что неясного в инструкции? https://yandex.ru/support/webmaster/robot-workings/allow-disallow.html

lustoff
На сайте с 14.10.2011
Offline
76
#277
Miha Kuzmin (KMY):
lustoff, а что неясного в инструкции? https://yandex.ru/support/webmaster/robot-workings/allow-disallow.html

1. префикс - это кусок урла?

2. логика менялась, раньше шли директивы в порядке последовательности а не в зависимости от длины префикса? или так всегда было?

[Удален]
#278

2 не всегда, но уже довольно давно.

lustoff
На сайте с 14.10.2011
Offline
76
#279
Miha Kuzmin (KMY):
2 не всегда, но уже довольно давно.

Спасибо, я просто в танке.

Подскажите, пожалуйста, еще что за "Другая ошибка" в Search Console?

lustoff
На сайте с 14.10.2011
Offline
76
#280

Нашёл похожую тему - может кому пригодится https://plus.google.com/111816577913058385301/posts/R6zooALwvg7

Только не понял, что мне нужно там менять. Если кто подскажет - буду очень благодарен

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий