- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нужно закрыть на индексацию файлы 403.shtml 404.shtml 500.shtml для всех поисковиков, а для бота рамблера закрыть папку /cgi-bin/ и 403.shtml 404.shtml 500.shtml
Правильно ли написать в robots.txt следующее:
User-Agent: *
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Host: www.site.ru
User-agent: StackRambler
Disallow: /cgi-bin/
Нужно закрыть на индексацию файлы 403.shtml 404.shtml 500.shtml для всех поисковиков, а для бота рамблера закрыть папку /cgi-bin/ и 403.shtml 404.shtml 500.shtml
Правильно ли написать в robots.txt следующее:
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Host: www.site.ru
User-agent: StackRambler
Спецификация не предусматривает закрытие конкретных файлов, а только директорий. Поэтому предлагаю создать онную, типа ErrorDocument и туда забросить все страницы ошибок, в этом случае роботс выглядит так:
Кто Вам сказал такую чушь?
Смотрим в стандарт - http://www.robotstxt.org/wc/norobots.html
Приведенный там пример:
User-agent: *
Disallow: /cyberworld/map/ # This is an infinite virtual URL space
Disallow: /tmp/ # these will soon disappear
Disallow: /foo.html
Посмеете оспорить?
И на будущее - подобная конструкция Disallow: /foo.html закрывает от индексации любой урл, начинающийся на site.ext/foo.html
Правильно ли написать в robots.txt следующее:
User-Agent: *
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Host: www.site.ru
User-agent: StackRambler
Disallow: /cgi-bin/
Нет, секцию для Рамблера надо оформлять полностью, т.е. занести туда все запрещаемые файлы:
User-Agent: StackRambler
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Disallow: /cgi-bin/
Т.к. если для какого-то робота есть отдельная секция, то он должен выполнять только ее директивы и игнорировать общую секцию.
Кстати, если Вы используете директиву Host, которую поддерживает только Яндекс, то я бы порекомендовал оформлять еще и отдельно секцию для Яндекса с этой директивой - неизвестно, как поведут себя другие боты, обнаружив в секции нестандартные директивы, они могут посчитать секцию ошибочной и проигнорировать все ее директивы.
Выходит вот такая конструкция:
И всеж, хоть я и не прав был с отдельными файлами, мне лично такая конструкция не нравится, я бы вынес в отдельную директорию.
Понял, всем спасибо!