Намекайте уж до конца :) Кто в теме поймет.
Мы об этом и говорили :) Тут не о редиректе речь идет, а о времени пребывания на сайте, даже без перехода юзера.
Стата была бы интересна, согласен. Эспериментов можно провести много, если есть время. Но только тут две стороны медали: 1. Плодить конкурентов. 2. Палить тем же яндексоидам результаты.
Кто захотел, тот понял и сделал выводы.
О первоочередном влиянии ссылочного не слышали?
Именно. Сделайте анализ и выложите результаты, будут все довольны.
При чем тут разные вкладки к статистике по времени, которое засекается при клике на странице выдачи по ссылкам?
Куки одни и те же, айпи тот же.
Что же Вы многолетний трастовый сайт сравниваете с нулевым свежим дором? :) Факторов то много.
Jet D., согласен с Вами. Но тут схема намного сложнее, по 1-3м посетителям с тулбара сложно сделать точный или приблизительный к точному вывод. Ведь если нет редиректа, то юзер еще и "рассматривать" картинки может или лазить по навигации (если структура дора сложнее). В случае использования схемы учета поведения по кликам результат будет на порядок лучше.
При конверте 1 к 300-500? Если это основная масса, то Вы правы.
Даже если Вы почистите кеи и удалите все "бесплатно", "без смс", то на сколько поднимется конверт? Даже если будет фантастический вариант ратио "1 к 10", то это значит, что лишь 10 процентов останется на платнике, а 90 процентов вернется в выдачу. Улавливаете смысл?
Нет статы по проценту использования юзерами тулбара Яндекса? ФФ с тулбаром ведь далеко не у всех. Потому не будет это такой уж реальной схемой в 100% случаев. Описанная же схема будет работать всегда, в реальности.
Очень много болда на страницах.
А резкая смена статуса ответа сервера с дипазона 100-299 на 403 (access denied) не будет вызывать подозрения? :) Это при условии, что страница будет аппаратно (программно, нужно еще поспорить) запрещена в .htaccess, а не в роботсе. Если в роботсе, то тут уж нужно гадать на кофейной гуще, был там бот или нет.
Кстати подмена конечного результата для бота, в отличии от юзера, это уже сродни клоакингу, который уже ой как давно палиться и наказывается. Тут по сути не подмена, а ограничение для бота, что сродни тому же клоакингу. Объясню почему: когда структура сайта запрещается в роботсе, то в перелинковке нет прямых линков на эти системные папки, а они всего лишь в виде путей (как то css стили, пути к рисункам и тд), а в случае с ограничением доступа юзер имеет доступ на страницу по перелинковке, а робот нет. Обман чистой воды.
Ну да :) Рабочая схема:
1. Посетитель находится на странице поиска.
2. Периодически переходит по ссылкам из выдачи, которые имеют не прямой вид, а через редирект. Это сделано для поведенческого анализа посетителей и сбора статданных.
3. Время от перехода со страницы выдачи на сайт и возврат обратно в выдачу (что говорит о неудовлетворенности юзера или неполноте данных на сайте) четко прослеживается без какого-либо доступа к сайту.
Какое отношение статический нулевой и безтрафовый сайт имеет отношение к нашему разговору? :) С доров обычно хотят получать прибыль с посетителей, а не вешают его скрин на стену, чтобы любоваться на досуге.
Если можно ссылку, попсовых певичек не знаю. Благодарю.
Логически согласен, но если сам факт редиректа на запрещенную в роботсе страницу будет явно палиться. Ничто не мешает разработчикам сделать условие: если есть редирект >> анализировать запрещенную страницу. Разработчики не дураки, а это в 99% случаев будет иметь толк в борьбе с дорами + анализ других факторов, как, к примеру, время пребывания на сайте, скорость возвращения на страницу поисковика + будет палить рефер, откуда в поиск вернулся посетитель. Поверьте, сделать список "неблагоприятных" реферов не так уж сложно. Можно обрезать 90 процентов связок "дор + партнерка".
Проведите аналогию с флешем. Вы можете сделать на нем сайт. Но не будет ли это ущербным поступком в отношении возможного продвижения? ;) Кстати Гугл флешки "ест" (.swf, равно как и pdf и другие форматы, известно всем), в Яше не замечал (вернее не задавался целью найти прецедент).
Факт первый - разработки прогрессируют, потому давность - это не древность, технологию совершенствуют, добавляют как функционал, так и учет сотни факторов при анализе.
Факт второй - следование разработкам гугла. Уж если в гугле уже года три назад палили переходы и выполнения по яваскриптам, то, думаете, за это время Яндекс не приблизился к функционалу детища Брина и Пейджа.
Это не аппаратный или программный запрет, а строка-рекомендация. Если робот будет заблокирован в htaccess по ip - это будет запрет. Так яснее или все еще "непонятно"?
Приведенный в моей ссылке эсперимент чем не устраивает?