- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, коллеги, есть возможность задать правило, чтобы скрыть от ПС подкаталоги с url вида:
http://domain.ru/root/directory/
и оставить только:
http://domain.ru/root/.
Т.е. скрыть всё, что ниже первого уровня вложенности (корневой папки сайта). Подпапки все с разными именами.
Тупой перебор не подойдёт, там их >100.
Allow: /root$
Allow: /root/$
Disallow: /root/*$
:), блин, не подумал, что и то что я написал можно понять разными способами.
maldivec, имя папки root в моём случае, тоже может быть разным. Это вообще может быть не папка а файл в корне сайта без расширения в url (типа ЧПУ).
Надо разрешить индексировать всё, что в корне и запретить всё что в поддиректориях.
ЗЫ наверное всё-таки одной инструкцией такое сделать не получится :(.
Disallow: /*/*
Это правило для Яндекса запрещает индексацию всего содержимого любых папок на сайте (за исключением файлов в корне сайта)
Только что проверил в инструментах Яндекса (там есть отличный раздел для решения подобных вопросов "Настройка индексирования - Анализ robots.txt").
Сработает ли для других поисковиков не знаю, не выяснял.
gormarket, спасибо! 🍻
Это очень близко к тому что мне нужно, только Ваша инструкция срабатывает для адресов вида: http://domain.ru/root, а http://domain.ru/root/-запрещён.
Я немного изменил инструкцию: Disallow: /*/*/*
теперь инструмент проверки в ВМ показывает, что http://domain.ru/root/ - разрешён, а http://domain.ru/root/directory/ - запрещён. То что нужно!
Пойду с гуглом разберусь.
ЗЫ для гугла тоже работает!
А http://domain.ru/root/directory (без слеша на конце) ? :)
А http://domain.ru/root/directory (без слеша на конце) ? :)
Так не проверял, у меня таких адресов нет.
Disallow: /root/*$
Идиотская конструкция. Звезда с баксом ввергли Онотолея в печаль.