Как же все-таки Google и Яндекс оценивают поведенческий фактор?

Darkrider
На сайте с 08.08.2010
Offline
26
#51
disss:
еще идеи???

Еще идея такая вот тут на форуме приводился пример отказов от страницы.

Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"

Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.

Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.

Если на сайте например стоит яндекс метрика то

произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е

"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую

модель ранжирования.

Тоесть отказ от ссылочного ранжирования возможно не полный а на

процентов так 40 или 30.

При котором каждый пользователь интернета ну и гугл + сам становиться

асессором поисковой системы.

Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.

Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он

хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.

Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за

установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.

Лично я считаю что поисковики пытаются перейти ссылочных факторов

на социальные и поведенческие потому что ими труднее манипулировать.

P.S Вот такие мои мутные мысли 🙄

vagogrande
На сайте с 25.02.2012
Offline
110
#52
Darkrider:

Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
:

Вы забыли один нюанс. Пользователь после этого открыл или не открыл аналогичную страницу в выдаче. Поисковик это видит, а вот вебмастер нет.

Блеск в его глазах был заревом праздничного салюта, которым его тараканы отметили окончательную победу над разумом
disss
На сайте с 25.02.2009
Offline
147
#53
Darkrider:
Еще идея такая вот тут на форуме приводился пример отказов от страницы.
Например юзер задал запрос в поисковик "Заказать Такси в москве дешево"
Поисковик выдает страницу. Юзер зашел на страницу сайта: увидел цену и телефон фирмы.
Прошло секунд 30 а то и 10 секунд, и все закрыл страницу.
Если на сайте например стоит яндекс метрика то
произошел "отказ". Так вот я считаю поисковики могут делить запросы на типы запросов т.е
"заказать такси в москве дешево" и прибывание юзера на страницы составило 30 секунд это нормаль. А вот если юзер набрал в поисковике "Рецензия на фильм обитель зла 5" и через 30 секунд закрыл страницу сайта то это ненормально. Еще читал такое на зарубежных Seo ресурсах что гугл считает страницу хорошей если юзер находился на ней минимум 1 минуту 30 секунд конечно это зависит от запроса, некоторые источники ставят до 3 х минут. Теперь еще гугл создал соц сеть гугл + ну и соответственно кнопку на сайт добавить в гугл +. А вы знаете что гугл считает количество лайков на страницу а также количество ссылок с лайками ведущими на вашу страницу или ваш сайт с другого сайта на ваш сайт. Я считаю что гугл пытается создать новую
модель ранжирования.
Тоесть отказ от ссылочного ранжирования возможно не полный а на
процентов так 40 или 30.
При котором каждый пользователь интернета ну и гугл + сам становиться
асессором поисковой системы.
Теперь многие могут сказать что типа накрутить гугл + да не проблема пойду да куплю лайки например в Юзераторе. Так вот что мешает гуглу создать среднее значение при котором одни лайки учитываются а другие нет. Ну личный опыт скажу следующие занимался накручиванием лайков гугл + так вот из 30 лайков отвалилось 23 тоесть гугл реально вычислил.
Теперь об оценки дизайна сайта и юзабилити, есть такой ресурс CyberAnalytic, на сколько он
хорошо или плохо оценивает сайты судить не буду, так вот что мешает гуглу ну и яндексу создать нечто похоже но свое, а уж они это могут.
Ну и последнее так сказать поразмыслить на досуге: зачем гугл разработчика ПО платил деньги за
установку тулбара и зачем был создан браузер от гугла хром, ну а потом яндекс браузер, яндексом. Кстати хорошая идея да все руки не дойдут поставить сниффер и посмотреть что сливают тулбары и браузеры.
Лично я считаю что поисковики пытаются перейти ссылочных факторов
на социальные и поведенческие потому что ими труднее манипулировать.
P.S Вот такие мои мутные мысли 🙄

мыслите отлично

"To be or not to be..."
theKashey
На сайте с 22.02.2012
Offline
70
#54
богоносец:
Одна на один запрос. Для Яндекса неповторимых в сутки несколько десятков лямов, 10**10 в год, если неповторяющиеся не начать стирать раньше. Для Гугля больше. И записью может быть нечто произвольной длины, описывающиее запрос/позиции/урлы/клики и время между кликами. И всё это зашумлено...

Тут наверное будет работать "карма" всего домена.

А вообще с редкими запросами труба какая-то - они вроде как редкие, вроде как каждый день разные, да чет статистика у сайтов не скачет так же хаотично.

богоносец
На сайте с 30.01.2007
Offline
774
#55

На больших числах много чего как бы хаотичного усредняется.

И модели могут быть сложнее, чем ПФ для каждого запроса

Зная цепочки запросов других пользователей, можно дополнить выдачу наиболее вероятными ответами

докладчик предложил рассмотреть «страшный объект», который называется графом запросов, где узел – это запрос, ребро – количество пользователей, переформировавших один запрос в другой, поиск – это случайное блуждание по данному графу. При этом выдача формируется на основе наиболее вероятных точек остановки поиска.

Но когда доходит до реализации, то выясняется, что алгоритм — это не человек, а тупая, упрощённая и лишь вероятносная его версия. Приходится упрощать... и результат может скатиться до того же, что даст какая-то совсем простая модель.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий