- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Суть в следующем - для одной странички на сайте требуется запретить индексацию всеми поисковыми системами и другими нехорошими роботами, кроме Яндекса. Помогите пожалуйста грамотно составить robots.txt. Весь остальной сайт должен быть открыт для всех.:rolleyes:
User-agent: *
Disallow: page.html
User-Agent: Yandex
Allow: page.html
Я бы вот так сделал.
запретить индексацию всеми поисковыми системами и другими нехорошими роботами, кроме Яндекса
-scream-, А расскажите для чего такие меры (просто ради интереса).
Никак не могу понять, что нужно спрятать от, например, Google и оставить видимым для Yandex.
t_o_x_a вам всё верно объяснил, кстати :)
User-agent: *
Disallow: page.html
User-Agent: Yandex
Allow: page.html
Я бы вот так сделал.
лучше сначала блок для Яндекса, а потом для остальных роботов. Правила обрабатываются последовательно.
Суть в следующем - для одной странички на сайте требуется запретить индексацию всеми поисковыми системами и другими нехорошими роботами, кроме Яндекса. Помогите пожалуйста грамотно составить robots.txt. Весь остальной сайт должен быть открыт для всех.🙄
User-agent: *
Disallow: page.html
User-Agent: Yandex
Allow: page.html
Я бы вот так сделал.
Мммм... А зачем Allow: page.html ?? Роботс всё же существует ,что бы запрещать ,а не разрешать.
ТС Вам достаточно будет
User-agent: *
Disallow: /page.html
User-agent: Yandex
Disallow:
Host: host.ru
Мммм... А зачем Allow: page.html ?? Роботс всё же существует ,что бы запрещать ,а не разрешать.
ТС Вам достаточно будет
User-agent: *
Disallow: /page.html
User-agent: Yandex
Disallow:
Host: host.ru
По-моему, если запретил всем, то Яндексу тоже запретил. С фига ли тогда он будет индексировать страницу, если ее не разрешить заново?
Allow: page.html
Нет такой команды: Allow
Нет такой команды: Allow
Точно, я был неправ. ТС, признаю свою ошибку в моем совете. :)
http://robotstxt.org.ru/RobotstxtErrors - вот тут подтверждение, в самом низу.
Svonik показал верный вариант.
Векжививекучись :)
Яндекс учитывает директиву Allow:
http://help.yandex.ru/webmaster/?id=996567
Блин, тогда я вообще запутался. Но Яндекс более авторитетный источник, значит, есть такая директива.
Может, кто разъяснит? :)
Блин, тогда я вообще запутался. Но Яндекс более авторитетный источник, значит, есть такая директива.
Может, кто разъяснит? :)
Данная деректива учитывается не всеми роботами ПС.
P.S. Гуглом также учитывается
http://www.google.ru/support/webmasters/bin/answer.py?answer=40364&ctx=sibling