- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите пожалуйста, как запретить в robots.txt индексацию страниц в которых есть цифры. Что бы это касалось страниц, которые имеют внутри цифры, примером: /250/, /255/, /267/ и т. д. Пример полного URL - site.ru/katalog-ob-yavleniy/uslugi/drugie-uslugi/250/mebelnye-tury.html
Подскажите пожалуйста, как запретить в robots.txt индексацию страниц в которых есть цифры.
никак, проще закрыть целиком директорию, в которой есть урлы с цифрами)
Disallow:
/*1*
/*2*
/*3*
/*4*
...
Disallow:
/*1*
/*2*
/*3*
/*4*
просто если у него в любом другом урле будет стоять цифра - тогда хана)
Да, аккуратнее. 10 раз подумайте над урлами существующими, avtomastersu.
Но других вариантов решения я не вижу...
никак, проще закрыть целиком директорию, в которой есть урлы с цифрами)
Спасибо за совет. Но проблема состоит в том, что после обновления движка с j1,5 до J2.5 и отказа от применения компонента sh404sef из за его постоянных траблов, изменились адреса ссылок. Googe бот все давно переиндексировал, а наш отечественный держит их уже около года и не удаляет не взирая ни на какие ухищрения. Вот примером
Было
site.ru/katalog-ob-yavleniy/uslugi/drugie-uslugi/250/mebelnye-tury.html
Стало
site.ru/katalog-ob-yavleniy/43-drugie-uslugi/250-mebelnye-tury.html
И таких страниц у него более 1700. Пробовал удалять через сервис удаления URL, не могу правильно запретить индексацию страниц.
Может Вы как более опытные в этом, что нибудь подскажете.
Как закрыть от индексации страницу http://mail.domen.ru?
Это правильная директива - Disallow: mail.domen.ru?
Для J2.5 есть плагин NODUBLES, не факт, но вдруг он поможет. Плагин либо редеректит на нужную страницу либо отдает ошибку 404, это можно в админке выставить.
Да зачем мне плагин. Задача стоит в закрытии от индексации одной страницы.
Может вот так?
Disallow: /*2*/
allow: /*2*-*/
Первый запрещает все с цифрой два. А второй разрешает из них если стоит -. Если исходить из вашей структуры то /число/ старые страницы, а новые могут быть /число-/, а такие как раз разрешаем.
Может вот так?
Disallow: /*2*/
allow: /*2*-*/
Первый запрещает все с цифрой два. А второй разрешает из них если стоит -. Если исходить из вашей структуры то /число/ старые страницы, а новые могут быть /число-/, а такие как раз разрешаем.
Спасибо, очень интересное предложение. А не существует правила, одного всех цифр, что бы не вставлять 2, 5, 78 и т. д., много их там таких.
Или так нельзя?