- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Ну и самый главный вопрос как прописать в robots запрет на индексацию ссылок с "?"
Делается это просто Disallow: /*?*
User-agent: *
Disallow: *?*
Закроет все урлы с символом "?".
Делается это просто Disallow: /*?*
скорее так Disallow: /*?
Спасибо, а как могут вообще появиться такого типа УРЛ?
Спасибо, а как могут вообще появиться такого типа УРЛ?
Урлы со знаком "?" обычно бывают с Get-параметром, могут появиться при пагинации страниц, фильтрах и т.д.
Добрый день!
Подскажите пожалуйста правильное расположение роботов в robots.txt
1) User-agent:Bingbot #роботы которым запрещен доступ (для каждого указать правило Disallow: /
Disallow: /
User-agent:Slurp
Disallow: /
.
.
2) User-agent: * # все остальные роботы правила
3) User-agent: GoogleBot # робот Google
4) User-agent: Yandex # робот Yandex
Sitemap: https://site.ru/sitemap.xml
Host:https://site.ru/
Если сайт работает на https (SSL подключен) правильно ли значения для sitemap и host ? Настроен редирект с http на https. Https считается основным.
Спасибо, с ув. Spektrof
Яндекс ругается на роботс.тхт, якобы используется недопустимый символ "!". Ок, а как тогда прописать директивы вида "Disallow: !xxx" ? Если "Disallow: *xxx", то под раздачу все попадет, что содержит "xxx" в урл. Как запретить именно папку !xxx, не трогая все остальное?
Не пойму, как используя только * и $ можно создавать подобные правила..
Disallow: /xxx/ попробуйте
Скорее, так: Disallow: /ххх
Или так: Disallow: /*ххх