- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
По стандарту, файл роботс.тхт обрабатывается последоватльно. Директива HOST ставится всегда последней. Посему, те кто ее не понимаю, встретив ее, прекратят обработку файла, но, как понятно, это уже значение не играет.
Т.е. вы считаете, что в этой ситуации:
Disallow:
Host: site.ru
User-agent: *
Disallow:
любой робот, отличный от Yandex, дойдёт до Host и прекратит чтение файла robots.txt? И как он вообще дойдёт до неё, если user-agent не его?
Или вы имели в виду такой вариант:
Disallow:
Host: site.ru
Во втором случае согласен, что робот (не Y) глюканёт и скажет: good bye ...
Новые правила от 21 числа
новость здесь - http://webmaster.ya.ru/?ncrnd=3892
Использование robots.txt - http://help.yandex.ru/webmaster/?id=996567
vinic
Все правильно у вас написано, такая конструкция работает на ура;)
Или ты про невалидность для не-Яндекса?
ну да :) яндекс то слопает без проблем
кстати, пробегала тут инфа (самому лень проверять), что надо писать User-Agent:
вроде как у человека решились проблемы, после того как слово agent исправили с большой буквы.
и делайте отдельную секцию для яндекса, хуже от этого точно не будет.
Извиняюсь за немного оф, а для гугла тогда как писать?
Disallow:
Host: site.ru
User-agent: *
Disallow:
ну да :) яндекс то слопает без проблем
У меня всю жизнь и Гугл хавает нормально )
Юзер агент: *
Хост - в конце файла. Все чики пики ;)
Сегодня проверял яндексовским скриптом robots.txt на одном из сайтов - директиву Host игнорирует! Указывал "User-agent: *" и "User-agent: Yandex" - по барабану, видит только что в Disallow...
Две недели назад всё было нормально. Нововведение или глюк?
Файл robots.txt - это стандарт, в котором важны каждая буква или символ. Да, многие дополняют этот стандарт, но его никто не отменял.
Правильно писать - User-Agent! Agent нужно писать с большой буквы. Если вы пишете с маленькой - хоть запишитесь, все будут игнорировать.
У меня всю жизнь и Гугл хавает нормально )
Юзер агент: *
Хост - в конце файла. Все чики пики
У вас Google понимает Host ??? Поздравляю, однако )))
Во втором случае согласен, что робот (не Y) глюканёт и скажет: good bye ...
не глюканет, а исполнит все инструкции, которые для него валидны!
kimberlit, Гугл не воспринимает как ошибку в конце строки. Вникай в суть. Я не говорил что гугл понимает хост и прекрасно знаю что хост - изобретение Я. Я проконстатировал факт. А вы, я смотрю, не можете не воспользоваться моментом...