- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Залил robots.txt
в нём:
-------------------
User-Agent: *
Host: www.site.ru
-------------------
Больше ничего нету.
Проверяю через любой seo-сервис - выдаётся:
------------------------------------------------
Запрещена индексация всех URL, начинающихся с указанных префиксов:
/
Индексация сервера site.ru:80 запрещена полностью.
------------------------------------------------
Что я сделал не так? Просто раньше никогда в РОБОТСе не пользовался функцией Host, а теперь она мне понадобилась. Может я напортачил чего?
Подскажите.
http://robotstxt.org.ru/RobotstxtErrors#h83-17
А вообще поиском можно было воспользоваться - почти каждый день вопросы с robots.txt обсуждаются.
fine, спасибо :)
Не хватает строчки:
Disallow:
Залил robots.txt
в нём:
-------------------
User-Agent: *
Host: www.site.ru
-------------------
Больше ничего нету.
Проверяю через любой seo-сервис - выдаётся:
------------------------------------------------
Запрещена индексация всех URL, начинающихся с указанных префиксов:
/
Индексация сервера site.ru:80 запрещена полностью.
------------------------------------------------
Что я сделал не так? Просто раньше никогда в РОБОТСе не пользовался функцией Host, а теперь она мне понадобилась. Может я напортачил чего?
Подскажите.
User-agent: *
Disallow:
User-agent: Yandex
Disallow:
Host: www.site.ru
Так будет правильно ;)
Не хотел создавать отдельную тему. Поэтому спрошу здесь.
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/
User-agent: Yandex
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation
Host: www.sait.ru
Так будет правильно?
Не хотел создавать отдельную тему. Поэтому спрошу здесь.
Так будет правильно?
А зачем дважды disallow дублировать?
Не бойтесь директивы Host, она успешно игнорируется всеми остальными.
Т.е. разумно будет использовать?
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/
Host: www.sait.ru
и
Disallow:
Host: www.site.ru
Т.е. разумно будет использовать?
Да, часто так и используется, несмотря на то, что это не соответствует стандартам и периодически появляются статьи типа:
http://notes.webartsolutions.com/archives/000084.html
А зачем дважды disallow дублировать?
Перестраховка. :) Инструкции инструкциями, но и сам не плошай, не пугай других роботов неизвестной директивой.
Гугл проигнорировал директиву host (про остальных поисковиков не знаю). Так что можно использовать
Disallow: /papka1/
Disallow: /papka2/
Disallow: /papka3/
Host: www.sait.ru
Но всё-таки лучше придерживаться стандартов и использовать (так я и поступлю)
Disallow: /papka1/
Disallow: /papka2/
Disallow: /papka3/
User-agent: Yandex
Disallow: /papka1/
Disallow: /papka2/
Disallow: /papka3/
Host: www.sait.ru
Вдруг какой-нибудь бот не правильно поймёт ;)