- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Кто прокомментирует https://eda.yandex/robots.txt
Так ли надо делать?
Добрый день. На сайте несколько каталогов, и они генерируют дубли контента. В основном, из-за get-запросов вида:
?sort=price&sort_order=asc
?view=list
Как правильно закрыть такие страницы от индексации?
Правильными будут такие директивы:
Disallow: *sort*
Disallow: *view*
?
Будут правильными, но таким образом вы можете закрыть страницы, содержащие в адресе "sort" и "view". Проще закрыть все запросы или использовать знак вопроса с нужными переменными в директиве.
Спасибо. Да, что-то проглядел.
Need help.
Подскажите плз, как в роботс txt реализоваться такую штуку.
Сейчас у меня там есть инструкция:
Disallow: *?
Типо все страницы с параметрами get вообще не надо видеть и знать о них, ибо дубли.
Но при этом на css у меня тоже стоит get параметр:
/tpl/css/style.css?update=1
Как указать роботу, что все с get нельзя, а css можно?
Allow: *?update*
Да, так прокатило )
Всем добрый день подскажите плиз как закрыть в robots.txt все что встречается с /domenUrl/ с этим названием
вот пример пару страниц которые надо закрыть
kiev.ua/tovar-dlya-detey/obuv-detskaa-dla-devocek/domenUrl/tovar-dlya-detey/obuv-detskaa-dla-devocek/
kiev.ua/tovar-dlya-detey/odezda-dla-malcikov/domenUrl/tovar-dlya-detey/odezda-dla-malcikov/
kiev.ua/oplata-i-dostavka/domenUrl/oplata-i-dostavka/
Подскажите, как закрыть от индексации раздел третьего уровня вложенности с динамическими параметрами в адресе?
1) Вот такого правила будет достаточно?
Disallow: /*/*/*?
2) Или нужно добавлять правило, чтобы индексировался четвертый уровень и последующие?
Allow: /*/*/*/*
3) При указании Disallow: /*/*/*? будут ведь индексироваться первый и второй уровни?
1) Нет.
2) Да.
3) Будут.