И спрашивай Воронежского Романа...
Тоже верно.
Хотя именно в споре рождается истина.
Я не ошибаюсь..
Я ежедневно получаю кучу аналитической информации от яндекса и гугля, причем уже давно. При этом прокси не использую.
Вопрос в том КАК писать и что писать.
Ваше утверждение верно только с точки зрения того, что когда вы запрашиваете скриптом из Excel вы пользуетесь браузеровским API и своим локальным IP
А когда это делает сервер, он пользуется тем, что дают или не пользуется, если не дают...
Это уже дело квалификации программиста.
Человек, который задавал вопрос пишет ПРОГРАММУ, и я ему как программисту советую лучший и наиболее грамотный подход, потому как Excel это какой то несерьезный подход к решению аналитических задач..
Или вы последователь господина Ашманова с партнерами?
Вы считаете что он его учитывает сейчас?
Это собственно и был вопрос, есть ли вероятность того, что существует такой коэффициет, как вы его назвали CTR, и учитывается ли он при формировании выдачи
Такая статистика без привязки к сайтам по моему имеет минимальную ценность. Грубо говоря только посмотреть по какому запросу докуда доходит пользователь.
Яндексу на мой взгляд от такой инфы не горячо не холодно, хотя я могу и заблуждаться.
А вот привязать ее к сайту и добавить при этом некий коэффициент инертности - вот это может та самая причина.
Яндекс получает самую точную статистику переходов по поисковым запросам непосредственно привызывая это к сайту, то есть в теории можно допустить существование некоего коэффициента...
Или я лезу в дебри, куда и лезть то ни к чему?
У каждого запроса Яндекса есть идентификатор, получается что он кеширует запрос (и правильно делает). Соответственно при таком раскладе как я привел в примере мало того, что просто можно посчитать количество кликов на каждую позицию выдачи, а еще и привязать этот клик к конкретному сайту. Что касается "статистика хлеба не просит", а вы попробуйте запустить скрипт хотябы на пару милионов итераций в цикле и посмотреть какой лог он вам создаст...
Очень большие объемы, приличная нагрузка...
Зачем это собирать просто так?
Гораздо резоннее предположить, что это некая инерционность.
Я потому и спрашиваю, что не знаю ответа и хотел бы послушать мнения.
Кстати, мнения как у numerus просьба оставлять при себе.
а сами как думаете?
Нет, как раз все это есть, причем именно через курл.
единственное анализ ссылок с морды бы пригодился, точнее ссылок с сайта вообще. Так же если есть спайдер. например perl
Нужен именно парсинг... на самом деле левой пяткой я и его то вчера сделал... но пока наброски.
Имею ввиду, что одно и то же слово "тест" закодировано в get запрос по разному. в первом случае это стандарт, urlencode, а вот что это во втором случае, и как он потом раскодирует этот самый запрос обратно?
2. Вот только интересно, зачем яндексу "просто считать клики"? Образно говоря, ему что, нечем больше заняться, только просто так для красоты учитывать милионы кликов (а значит куда то записывать и тратить на это серьезные мощности) Вывод - раз считает, знач использует.
Что касается эксперимента, мысть неплохая, благодарю, надо будет попробовать.
Ежедневно скрипт берет и проверяет все домены которые собираются освободится (250 - 1000) за раз, на все параметры типа тиц, пр, кол во страниц, ссылок и т.п. делает из всего этого экселевский файл и присылает мне на почту... и так уже месяца четыре...
Пока не забанили.. никаких проксей не использую.