- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
После последнего обновления ядра CMS 1С-Битрикс, на сайте появились дубли страниц, отличающиеся от основных символами в урл вида /?set_filter=y
Опытным путем было установлено, что в индекс лезут те страницы, где размещен так называемый умный фильтр каталога, из-за которого в коде сайте такой урл
domen.com/?set_filter=y&arrFilter_5_MIN=137
137 - значение зависит от выбранных в фильтре параметров.
В robots.txt такие записи:
Disallow: /?set_filter=y
Disallow: /?arrFilter
Disallow: /?set_filter=y&arrFilter_5_MIN
Не помогает.
Как решить сию проблему?
Гляжу, вопросы про Битрикс слабый отклик имеют....
В настройках самой CMS нет возможности указывать типы динамических страниц, не подлежащие индексации?
Гляжу, вопросы про Битрикс слабый отклик имеют....
В настройках самой CMS нет возможности указывать типы динамических страниц, не подлежащие индексации?
Да вроде нет.
Подсказал мне человек, как правильно закрыть в robots.txt такие урлы. Часть уже отправил на удаление через форму в Я.Веб мастер, а часть пока не получается закрыть.
P.S. Потому не находят, ибо любит наш народ халяву. А Битрикс - платный движок. К сожалению, их саппорт не решает вопросы с настройкой robots.txt
Почему Disallow: /?set_filter=y&arrFilter_5_MIN* не работает, должно.
Почему Disallow: /?set_filter=y&arrFilter_5_MIN* не работает, должно.
Я перед слэшем знак * поставил - не работает.
Попробую ваш вариант.
Спасибо.
Сделайте вот так вот Disallow: /*?
Zegeberg, не получается, ибо при попытке удалить урл в панели ВМ, пишет "урл не запрещен..."
---------- Добавлено 11.03.2016 в 17:56 ----------
zhurikzzz, простите, но так я закрою нужные урлы.
Так такая сложная структура сайта...
После последнего обновления ядра CMS 1С-Битрикс, на сайте появились дубли страниц, отличающиеся от основных символами в урл вида /?set_filter=y
Опытным путем было установлено, что в индекс лезут те страницы, где размещен так называемый умный фильтр каталога, из-за которого в коде сайте такой урл
domen.com/?set_filter=y&arrFilter_5_MIN=137
137 - значение зависит от выбранных в фильтре параметров.
В robots.txt такие записи:
Disallow: /?set_filter=y
Disallow: /?arrFilter
Disallow: /?set_filter=y&arrFilter_5_MIN
Не помогает.
Как решить сию проблему?
В настройках Каталога не вариант прописать каноническую ссылку!?
http://joxi.ru/nAybeDJhX4KXQr
И вот: http://dev.1c-bitrix.ru/learning/course/?COURSE_ID=35&LESSON_ID=7199
После последнего обновления ядра CMS 1С-Битрикс, на сайте появились дубли страниц, отличающиеся от основных символами в урл вида /?set_filter=y
Опытным путем было установлено, что в индекс лезут те страницы, где размещен так называемый умный фильтр каталога, из-за которого в коде сайте такой урл
domen.com/?set_filter=y&arrFilter_5_MIN=137
137 - значение зависит от выбранных в фильтре параметров.
В robots.txt такие записи:
Disallow: /?set_filter=y
Disallow: /?arrFilter
Disallow: /?set_filter=y&arrFilter_5_MIN
Не помогает.
Как решить сию проблему?
Всё должно работать, если в/с robots ничего не нахимичено:
P.S. Потому не находят, ибо любит наш народ халяву. А Битрикс - платный движок. К сожалению, их саппорт не решает вопросы с настройкой robots.txt
В Битриксе платная не только лицензия, но и поддержка, которая ему необходима. Покупать ее нужно, раз уж вляпались в это Г.
После последнего обновления ядра CMS 1С-Битрикс, на сайте появились дубли страниц, отличающиеся от основных символами в урл вида /?set_filter=y
Опытным путем было установлено, что в индекс лезут те страницы, где размещен так называемый умный фильтр каталога, из-за которого в коде сайте такой урл
domen.com/?set_filter=y&arrFilter_5_MIN=137
137 - значение зависит от выбранных в фильтре параметров.
В robots.txt такие записи:
Disallow: /?set_filter=y
Disallow: /?arrFilter
Disallow: /?set_filter=y&arrFilter_5_MIN
Не помогает.
Как решить сию проблему?
как-то раз видел шаблон этой кмс нулленой,но версия старая была. вроде в шаблоне можно условия выставлять, посмотрите если есть то нужно сделать такое условие если set_filter=y то вывести каноническую ссылку или метатег роботс с запретом индиксации.