- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Ну почему же так... Отдельные участники форума любят его многократно и разными способами. Яндекс отвечает им тем же.
Главный по этому сервису все равно Дима Завалишин. Так что считайте мои рассуждения мыслями вслух.
Для меня лично вопрос соблюдения "прозванивалкой" правил для роботов не совсем ясен. Я, например, не знаю, как ведет себя самый старый и известный сайт хранитель закладок - hotlinks.com. По идее, его поведение можно считать модельным.
поиск "hotlinks robots.txt" ничего не дал.
на сайте ничего на эту тему не написано.
Про аналогии и "двойные стандарты".
Аналогия с поисковым роботом неверна здесь по следующим причинам:
Очевидно, что пользователь сам, явным выраженным образом, попросил нас хранить и прозванивать свои закладки. В отличии от индексирующего робота, который автоматически находит ссылки, автоматически их скачивает и т.д. и т.п.
Чем поведение Я-Закладок в моральном смысле отличается от установленного локального модуля менеджмента и прозвона закладок (таких с десяток можно найти на 2cows)?
То, что техническое действие прозвона для вас выполняет Яндекс?
Это все?
Кстати у меня долго стоял автоматический нотификатор об изменениях любимой страницы на сайте w3c. Не помню название этого сервиса, но смысл его действий отчетливо себе представляю. И уверен, что наличие на сайте файла robots.txt, с моей, пользовательской, точки зрения, не должен был влиять на его работоспособность.
Думаю также, что аналогии с метапоиском (search parasite) явно неуместны. Метапоиск нарушал отчетливо выраженную нами просьбу _не_ использовать нашу Базу Данных для дальнейшего перепродажи. Эта просьба называется "лицензией". robots.txt был в той ситуации просто первым пришедшим в голову поводом для претензии.
В данном же случае речь идет о сервисе персонального использования с персональными же данными (список закладок). Ничья конкретно база данных для дальнейщего коммерческого использования не выкачивается.
Все что делает наш робот - верифицирует персональную БД пользователя.
То есть "не буква, но дух" правил про robots.txt не нарушается
IMHO,
Илья
Главный по этому сервису все равно Дима Завалишин. Так что считайте мои рассуждения мыслями вслух.
Для меня лично вопрос соблюдения "прозванивалкой" правил для роботов не совсем ясен. Я, например, не знаю, как ведет себя самый старый и известный сайт хранитель закладок - hotlinks.com. По идее, его поведение можно считать модельным.
поиск "hotlinks robots.txt" ничего не дал.
на сайте ничего на эту тему не написано.
А как вы смогли на него зайти?
>host www.hotlinks.com
www.hotlinks.com is a nickname for hotlinks.com
hotlinks.com mail is handled (pri=0) by hotmail002.hotlinks.com
> host hotlinks.com
hotlinks.com mail is handled (pri=0) by hotmail002.hotlinks.com
Нету у него IN A =)
Про аналогии и "двойные стандарты".
Это к wolf'у.
Теперь по делу.
Простите Илья, но вы мои сообщения читали?
В результате общения я чётко сформулировал задачу.
Валидного решения её так и не нашлось ни у одного представителя Яndex'а.
Пусть робот не читает robots.txt, провайдер уже внёс в фаэрвол
запросы из сети комптека, вы и так не получите стандартным путём
никакой информации о состоянии документа.
Суть в том, что ваш робот будет стучаться, и посетитель Яandex.Закладки
увидит череп с костями вместо реальной информации о том, что
он не смог получить документ.
Согласитесь, что определения "НЕ МОГУ ПОЛУЧИТЬ ДОКУМЕНТ",
"ДОСТУП К ДОКУМЕНТУ ЗАПРЕЩЁН" и "ДОКУМЕНТ ОТСУТСТВУЕТ" не идентичны, как и код ошибки 403 <> 404 !