Игорь, от всей души поздравляю!
Здоровья и успехов Вам =)
А моя практика показывает, что в тематиках, сравнимых по конкурентности с названными, значение внутренних факторов столь мало, что на них можно смело плюнуть.
Если наблюдения топикстартера верны, речь идет отнюдь не о "разбавлении релевантности лишними символами", а именно о телефоне. Вообще-то я бы советовал поискать объяснение скачков еще где-нибудь, но исключать вероятность Вашей правоты, пожалуй, не буду.
Была большая тема от Mr_Promoter - Домыслы на закате эпохи ссылок - автор также делал предположение о том, что клики в серпе (которые, действительно, подсчитываются) могут влиять на серп.
Там же высказали множество контр-аргументов:
1) Это обещает славные времена для накрутчиков
2) Обратная связь - позиция зависит от кликов, клики - от позиции
3) Сниппет != сайт, сделать привлекательный сниппет можно и автоматически (это к вопросу об анализе кликабельности сайтов, а не о цепочках кликов)
4) Масштабный анализ поведения пользователя - весьма ресурсоемкая задача, а у Яндекса сейчас с этим проблемы, если верить слухам
5) ИМХО, самое главное - есть много "поисковых задач" (кому-то нужен конкретный сайт, кому-то конкретная фактическая информация, например синтаксис какой-нибудь функции Javascript, который можно найти прямо в сниппете, вообще никуда не кликая), кому-то нужно сравнить цены на товар, и т.д. Ну, и есть еще куча "поисковых стратегий", которые зависят от привычек конкретного пользователя: кто-то будет листать 50 страниц, кто-то переформулирует запрос, а кто-то вообще пойдет в гугл.
Так вот, по всем этим причинам вероятность того, что на кликах в выдаче будет основываться сильный фактор ранжирования - имхо очень мала. Я думаю, что статистика по кликам нужна Яндексу в первую очередь для "ручной" оценки качества выдачи - т.е. эти данные потом просматривают аналитики и придумывают специальный дизайн, чтоб по директу больше кликали (киргуду), ну и всякие новые фильтры =)
С другой стороны, вполне допускаю возможность использования информации по кликам в качестве одного из множества незначительных факторов. Действие этого фактора может быть настолько незначительным, что вычислить его экспериментально будет очень сложно, а тратить ресурсы на манипуляции незначительным фактором, существование которого, к тому же, вызывает сомнения - оптимизаторы вряд ли будут. Вообще, введение множества примерно равнозначных разнообразных факторов и фильтров - хороший способ испортить жизнь многим оптимизаторам. Другой вопрос, связаны ли "качество жизни оптимизаторов" и "качество выдачи"... но это уже оффтоп =)
8.02, Build 7680, прекрасно работает. Спасибо автору +)
lermont.ru, проглядел...
Всем спасибо, прошу прощенья, не догадался в "Статистику" заглянуть =)
Присоединяюсь к оффтопу ) С превеликим удовольствием осмотрю больного в личке +)))
Вообще, похожую ситуацию на нескольких сайтах наблюдаю. Есть подозрения, что Я опустил порог на скорость появления ссылок (и/или их одинаковость), после которого отключается входящее ссылочное.
Кстати, что характерно, с rd=0 пострадавшие сайты появляются. Говорите, этот параметр страницы по сниппетам клеит, и больше ничего? Ну-ну =))
А еще можно флэш-мобы устраивать. Ну, как недавно в аське была атака уток...
Или кто-то весьма хитер...
Интересно, а за клоакинг фавиконов банят? Надо проверить...
Ув. сотрудники яндекса, комментарии будут, или надо эксперимент корячить?
Вы считаете, что существует некий "допустимый уровень", глубже которого робот в принципе не копает? Это мнение основывается на каких-то конкретных наблюдениях, или просто "так могло бы быть"? Вопрос-то интересный...
Да, я тоже об этом думал. Поддерживаю.