- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Я вообще сильно удивлен, что только сейчас
Яндекс лишился ценного работника, интересно не жалеют?
К тому что трудящиеся пользуются его услугами?
Насколько я знаю яндексоиды даже рекламу размещают
чтобы трудящиеся про них чаще вспоминали, ...
Точно. Только рекламу они размещают для людей, а не для сеошных ботов. ;) И автоматические запросы к сервисам партнеров, получающих неограниченный XML, они могут распознать именно по низкому CTR рекламы (напомню, что размещение Директа в результатах поиска - необходимое условие для получения неограниченного доступа к Яндекс.XML члена РСЯ). И чем меньше партнер, тем легче выловить насилующих его выдачу ботов.
Я вообще сильно удивлен, что только сейчас - на мониторинге внешнем все отлично видно.
Значит, либо руки не доходят, либо то, кто смотрит - видит фигу :)
Точно. Только рекламу они размещают для людей, а не для сеошных ботов. ;) И автоматические запросы к сервисам партнеров, получающих неограниченный XML, они могут распознать именно по низкому CTR рекламы (напомню, что размещение Директа в результатах поиска - необходимое условие для получения неограниченного доступа к Яндекс.XML члена РСЯ). И чем меньше партнер, тем легче выловить насилующих его выдачу ботов.
Я писал что мои изделия обращаются к самому яндексу,
реклама это например алфавит который справок не дает.
Я писал что мои изделия обращаются к самому яндексу,
Соблюдая robots.txt? ;) Или юзер должен их использовать на свой страх и риск?
А за идею которую Вы подсказали писателям программ,
яндексоиды и XML партнеры Вам будут очень благодарны.
Да бросьте Вы. Секрет Полишинеля.
Соблюдая robots.txt? ;) Или юзер должен
их использовать на свой страх и риск?
Если сервис яндексоидов публичный то любому желающему
позволено им пользоваться. Если яндексоиды не хотят чтобы
все желающие пользовались их сервисом то пусть делают
предварительную регистрацию пользователей.
Если сервис яндексоидов публичный то любому желающему
позволено им пользоваться. Если яндексоиды не хотят чтобы
все желающие пользовались их сервисом то пусть делают
предварительную регистрацию пользователей.
Да, но проводится отличие между реальным пользователем, инициирующим вручную каждое своё обращение к серверу, и автоматическим ботом. Для последних - инструкции даны в файле robots.txt. Им доступ к страницам выдачи заказан. В Ваших сервисах каждое однократное обращение к странице с результатами поиска надо инициировать вручную? Если так, то нет проблем. Только что-то сомневаюсь я... ;)
Да, но проводится отличие между реальным пользователем, инициирующим вручную каждое своё обращение к серверу, и автоматическим ботом. Для последних - инструкции даны в файле robots.txt. Им доступ к страницам выдачи заказан. В Ваших сервисах каждое однократное обращение к странице с результатами поиска надо инициировать вручную? Если так, то нет проблем. Только что-то сомневаюсь я... ;)
Вы неправильно понимаете что такое robots.txt, это не
официальный стандарт и соблюдение его не обязательно.
It is not an official standard backed by a standards body, or owned by any commercial organisation. It is not enforced by anybody, and there no guarantee that all current and future robots will use it.
Отношения между Yandex и пользователями
регулируются договором публичной оферты.
ПУБЛИЧНАЯ ОФЕРТА - адресованное неопределенному кругу лиц и содержащее все существенные условия договора предложение, из которого усматривается воля оферента заключить договор на указанных в предложении условиях с любым, кто отзовется. Лицо, совершившее необходимые действия в целях акцепта П.о. (напр., приславшее заявку на соответствующие товары), вправе требовать от оферента исполнения договорных обязательств.
То есть если публике позволено пользоваться услугой
на каких то условиях, то любому представителю публики
позволено пользоваться услугой на таких же условиях.
Про то что каждый запрос должен отправляться вручную
тоже далеко от истины, например когда броузер запрашивает
страницу с картинками, то пользователь явно запрашивает
только страницу, а картинки броузер запрашивает сам
механически, то есть мои изделия это специальные
броузеры, которые упрощают работу пользователя.
Отношения между Yandex и пользователями
регулируются договором публичной оферты.
Ссылочку на текст сей оферты не изволите?
Единственное, что я нашел по этому поводу на Яндексе, так это Лицензия на использование поисковой системы Яндекса (Yandex.ru), пункт 2.4 котрой гласит:
Соблюдая robots.txt? ;) Или юзер должен их использовать на свой страх и риск?
Сергей, в robots.txt не прописано
Disallow: /yandpage
Так что с точки зрения robots.txt можно роботом парсить выдачу ;)
Хотя, конечно, с точки зрения Лицензии на использование поисковой системы Яндекса (Yandex.ru), все же нельзя..