relaxamos

Рейтинг
7
Регистрация
03.12.2008

0

P.S. Намекните какого именно ответа вы ждете от телепатов которые знают вашу тематику, слова, раскрутку сайта, бэки и т.д.

1. Странно, тогда что же получается что у доски объявлений откуда я данные деру тоже фильтр? Ибо там гораздо больше 10К страниц в день появляется.

2. Я не говорю что он именно ко мне раньше придет, но если смотреть вероятностно то 50/50.

Сайт не новый, больше года. Я не претендую на мистера "уникальность", просто вот как-то так.

xant:
Вывод такой: гугл отслеживает все клики в серпе, и не просто отслеживает, а еще и строит историю каждого поиска. Если человек прошел по первой ссылке, вернулся в серп и прошел по второй - значит, первое место по данному запросу его не устроило. Если человек прошел по паре ссылок, затем вернулся в серп и уточнил запрос - значит, посещенные ранее ссылки его не устроили по уточненному запросу. Это очень ценная информация для ранжирования по конкретным запросам. Я кстати уверен, что анализируются только отказы - то есть ситуации, когда человек прошел по ссылке, а затем вернулся в поиск - это защита от накрутки.
Конечно, метод подходит только для результатов первой страницы - для остальных просто недостаточно статистики - но зато он позволяет очень качественно, вручную отранжировать топ выдачи по вч и сч запросам. А именно это гуглу и нужно.
Ну, теоретически возможен вариант, когда статистика собирается и затем никак не анализируется. Если вы уверенны, что дело обстоит именно так, просто подумайте, что гугл ради этой статистики в несколько раз увеличивает количество запросов к своим серверам, умножьте на количество обращений к гуглу в день или месяц и прикиньте, в какую сумму это обходится...

Ради такого утверждения можно написать "умный" crawler который будет ходить по серпу, открывать сайты, делать отказы и т.д. Да и проверить просто.

То есть я не понимаю.

Вы хотите сказать что Гугль использует данные ГА для ранжирования страниц в СЕРПе?

devzev:
Моё обращение было больше к ТС. Просто я процитировал вашу запись.


А эксперименты по клику в серпе ставил не я, а целая тысячная армия.

Ну собссно вот.

relaxamos добавил 03.01.2009 в 15:26

YuriDnepr:
Т.к. это всего лишь ОДИН ИЗ факторов ранжирования - эксперимент поставить невозможно. Почему невозможно? - потому что Вы не сможете остальные факторы привести в равенство в серпе для эксперимента.

С ваших слов я не понимаю почему это вообще следует считать фактором?

Ссылку покажите, пожалуйста.

devzev:
Сто раз уже парсили (сам лично даже логи у Kerio изучал). Никто и ничего не отправляет.

Мало того, ставили эксперименты много раз по клику в серпе по определённому сайту. Практика не подтвердила вашу теорию.

Это не моя теория. Собственно я то что вы говорите и подозревал. Просто в топике несколько человек гадают может быть/не может быть. Если данные не уходят такого быть не может. Я всего лишь преложил самый простой вариант проверки. Но если вы ставили эксперименты даже кликая на сайт то тогда тем более все понятно.

Ну а что в принципе, это не сложно проверить насколько я понимаю.

Берется Wiresark (бывший Ethereal), на машину ставятся всевозможные разновидности браузеров типа:

* FF

* FF + GoogleBar

* Safari

* Chrome.

И вперед -- парсить логи. Если при посещении страниц нету никаких "странных" запросов на сайты типа google.com или, как предположение, на сайт производителя то соответственно все вышенаписанное не имеет под собой никаких оснований. Если же наоборот, то можно предположить что да, но на 100% быть уверенным все равно сложно. Откуда знать куда и для чего конкретно эти данные отправляются.

Короче говоря под Новый Год в буржуйнете вообще черти что творится.

Лично у меня сайт просто летает с 500-й позиции на ТОП-5, сейчас тьфу тьфу все нормально.

Совершенно верно, достаточно просто nofollow.

123 4
Всего: 31