Опс. Кажется, не хватит :)
Хватит VBScript
Для
<meta name="robots" content="noindex,nofollow">
baikal-boy
Кстати, Закладки являются не частью ПС Яндекс, а сервисом портала Яндекс (как бы Грею не пришлось этот топик переносить во флейм :)), а посему являются не совсем зеркалом Рунета.
og
Вообще-то я ожидал, что ответит wawa :). Думаю, что в плане значков что-то и будет сделано (по окончании сезона отпусков), но эти вопросы вне зоны моих интересов.
Что касается robots.txt, не думаю, что Закладки когда-либо будут его проверять (если только на него самого не поставят закладку :) ), по причинам, подробно изложенным выше.
wolf
Пример можно было бы и получше привести: GetterroboPlus Puu, конечно, занимается link validation, но только в составе поисковой системы.
Что касается вежливости, а так же тонкой грани между роботами и агентами, то тут кого-либо трудно переубедить. В любом случае, Закладки точно не занимаются Хамством.
> ... можно и не загружать ни немедленно, ни потом ... частном случаем может иметь ситуацию не засасывать документы, на которые стоит ссылка в исходном
Это святое право любого робота, однако не может отменить определения из первого абзаца:
... by retrieving a document, and recursively retrieving all documents that are referenced, иначе его (это определение) просто не было бы смысла писать в таком виде. Если Вы этого не понимаете, то я просто не в состоянии с Вами еще что-то обсуждать.
Кстати, вернемся к HEAD - не получается даже "by retrieving a document" :).
euhenio
Такой магазин пострадает даже от использования Favorites в MSIE и Netscape :).
> ... что свои проблемы они решать будут сами.
Во-во, зайдет пару раз робот закладок, - сразу и решат, если руки не совсем кривые. Кстати, можно и отсутствие referer'а проверять заодно, хотя неиспользование редиректа - это еще и лишние неудобства для пользователя.
Ну а если "передаются, например, Фио и контактные данные", то их и можно считать ID пользователя.
> Однако Яндекс.Деньги на Озоне продаются без всяких https =)
К сожалению, мне пока еще не довелось воспользоваться этим чудным проектом. О возможности перехвата личных данных пользователя третьими лицами у нас пока что мало кто печется, а пользоваться электронными магазинами все равно хочется ;).
Но это уже слишком сильное отклонение во флейм.
Во-первых, за 10 минут можно поправить скрипт так, чтобы после оформления заказа делался редирект 302 на страничку "заказ принят", с исходными параметрами.
Во-вторых, это что же получается, ID пользователя тоже параметром скрипта передается? А как же безопасность? Любой желающий из referer'а его узнает, и, будучи в веселом настроении, пойдет еще Вам что-нибудь закажет :). Такой магазин вообще не имеет права существовать (кстати, меня несколько мутит вообще от форм заказа без https).
...Webopedia...
В стандарте robots.txt обсуждаются как-бы web-роботы, которые мешают спокойно жить web-мастерам.
У Вас что-то плохо с английским языком (может, это просто к концу рабочей недели?)
...by retrieving a document and recursively retrieving all documents that are referenced.
Т.е. обход ссылок - обязательное свойство.
Дальнейшее добавление по поводу рекурсивности же, скажем так, по-русски означает, что
a) Немедленная загрузка документов, на которые ссылается только что загруженный, не является обязательным свойством робота, т.е. можно и потом.
b) Робот может применять к ссылкам некоторые эвристики, в т.ч. не обязательно, на самом деле, даже засасывать все документы, на которые стоит ссылка в исходном.
В общем, нету, похоже, такого средства. Не знаю, хорошо это или плохо. Если что-то в Инет выложили - значит, предназначено для чьих-то глаз.
Кстати, можно настроить сервер так, чтобы он для text/html всегда 404 выдавал вместо 200. Браузеры это, вроде бы, нормально воспримут.
Что касается Закладок - даже если доступ будет закрыт, ссылка останется в базе (хотя и с несвежим значком), если пользователь ее сам не считает нужным удалить.
> Normal Web browsers are not robots ... срабатывает автоматом
Тут написано, что web-браузеры не являются роботами. Это все и так знают. Но это вообще вне контекста обсуждения:
Идет дождь, следовательно на улице мокро.
Но из того, что на улице мокро, не следует то, что идет дождь, уж извините за банальный пример.
> И я не хочу чтобы сторонний сайт выдавал информацию о состоянии этой страницы.
Информацию о "живости" Вашей страницы Вы все равно никогда не сможете скрыть от тех, кому она интересна. И robots.txt тут не поможет. Как говорится, "The real answer is that /robots.txt is not intended for access control, so don't try to use it as such."
Поставьте туда пароль, как рекомендуется в faq, и будет Вам счастье.