Подтверждаю. Падение с 120-140 р./сутки до 35-45 р./сутки. Весьма прискорбно.
Поставил тизеры вместо РСЯ, 11 руб. с 2 блоков при 1900 хостов - смешно.
-50% четвертый день. Но вы поймите, конец года, эффективным менеджерам яндекса отчетность тоже подогнать в плюс нужно:)
А если не обзорный?:)
Упал бабос на рапидосик,
Сегодня в коксе будет носик
Нет, режим переживашки ON)
Работает! Помимо лайка, можно чуть-чуть отблагодарить финансово?) Скиньте в ЛС реквизиты что имеется)
Блин, теперь появилась проблема с другой стороны:
Конструкция вида, запрещает индексацию дублей категорий, но также запрещает и индексацию объявлений:(
Disallow: /*/real-estate/
Allow: /ru/real-estate/
Влажные мечты, но может можно как-то сделать и подобное?
https://edc.sale/ru/real-estate/ - разрешено к индексации
https://edc.sale/ru/moskva/real-estate/ - запрещено к индексации
https://edc.sale/ru/moskva/real-estate/sale/flats/second/prodam-2-kh-komn-kvartira-v-gorode-saki-13918.html - разрешено к индексации
Если нельзя через robots, может быть можно через htaccess? У кого какие мысли? Готовы даже дать небольшое вознаграждение за решение:)
Спасибо! Так, вобщем-то, и думал. Но подтверждающих примеров нигде в сети не нашел конкретно на такой случай.
Всем привет. Гуру роботса, подскажите, пожалуйста, насколько возможно сделать подобное:
Имеется огромный ряд url по типу
https://site.com/ru/sankt-peterburg/real-estate/
https://site.com/ru/moskwa/real-estate/
https://site.com/ru/omsk/real-estate/
Доступной к индексации требуется только https://site.com/ru/real-estate/ (без города)
Как запретить их в роботсе и возможно ли это в принципе?