- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая ситуация:
URL: http://www.site.ru/catalog/cat_2/cat_26/?podbor_po=parametram&trademark_id=152
закрыт от индексации, соответственно эта страница не проиндексирована. Но данная страница является точкой входа на сайт (продвигаемой страницей) каким образом ее можно открыть. ТОЛЬКО ЕЁ ИЗ ВСЕГО СПИСКА ЗАКРЫТЫХ СТРАНИЦ.
Сейчас robots выглядит так:
User-agent: *
Disallow: *podbor_po=*
Решит ли мою проблему, если я в роботсе пропишу:
User-agent: *
Allow: ?podbor_po=parametram&trademark_id=152
Disallow: *podbor_po=*
Или как правильно это все реализовать.
Заранее благодарен за помощь!
Такая ситуация:
URL: http://www.site.ru/catalog/cat_2/cat_26/?p
Решит ли мою проблему, если я в роботсе пропишу:
User-agent: *
Allow: ?podbor_po=parametram&trademark_id=152
Disallow: *podbor_po=*
Или как правильно это все реализовать.
Заранее благодарен за помощь!
Пример от Яндекса в его помощи
Совместное использование директив.
Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то выбирается последняя в порядке появления в сортированном списке. Таким образом порядок следования директив в файле robots.txt не влияет на использование их роботом. Примеры:
# Исходный robots.txt:
User-agent: Yandex
Allow: /catalog
Disallow: /
# Сортированный robots.txt:
User-agent: Yandex
Disallow: /
Allow: /catalog
# разрешает скачивать только страницы,
# начинающиеся с '/catalog'
# Исходный robots.txt:
User-agent: Yandex
Allow: /
Allow: /catalog/auto
Disallow: /catalog
# Сортированный robots.txt:
User-agent: Yandex
Allow: /
Disallow: /catalog
Allow: /catalog/auto
# запрещает скачивать страницы, начинающиеся с '/catalog',
# но разрешает скачивать страницы, начинающиеся с '/catalog/auto'.
Важно. В случае возникновения конфликта между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow.
ПЫ.СЫ если вам нужно открыть только 1 страницу, то в принцепе лучше прописать полный путь, то есть так:
Allow: /catalog/cat_2/cat_26/?podbor_po=parametram&trademark_id=152
User-agent: *
Allow: /catalog/cat_2/cat_26/?podbor_po=parametram&trademark_id=152
Disallow: *podbor_po=
kimberlit, спс