Cheshirski-Cat

Рейтинг
80
Регистрация
31.03.2012

Счетчики используют разные методы и алгоритмы. Видел результаты эксперимента полуторагодичной давности там сравнивали GA и LI. У GA точность порядка 95% у LI 80%. По метрике информации к сожалению нет.

kruchen:
Персональная выдача. В зависимости от того, где вы шастаете в сети и что больше вам интересно, Яндекс подмешивает то, что вас должно, по его мнению, заинтересовать. Как вариант, нужно почистить куки в браузере, не факт, что поможет.

Пытались одно время добиться одинаковых позиций на разных компах: одинаковые браузеры, чистка куки, один IP, одинаковое разрешение монитора, выход из-под логина в Яндекс.Почте, без Яндекс.Бара (элементов) и прочее... Один фиг выдача разная.

Это нормально, до тех пор, пока не позвонит заказчик 😂 Когда позвонит, можете предложить ему проверять позиции одинаковыми сервисами.

Вот еще в соседней ветке нашел /ru/forum/comment/10343193

Полностью согласен, могу добавить что на такой расколбас может влиять различие данных на разных серверах Яндекса (обычно если апдейт днем). Т.е. запросы одного браузера обработаны одним сервером, а второго другим (где информация еще не обновилась).

vagogrande:
Это уже обсуждалось. Вопрос округления данных. Маловероятно, по причине сопутствующих явлений. И существует отклонение от других ПС в недельных и у некоторых в сезонных колебаниях. Например трафик у сайт в выходные меньше в 3 раза, а переходов с гугла всего на 15-20% меньше.

Мысль понятна, но как в данном случае работает алгоритм? Трафик на сайт идет в меньшем объеме, гугл начинает переживать и... что? Поднимает запросы в топ на несколько позиций? Или поднимает нч запросы из небытия в топ?

Да, такие несостыковки встречаются, но если это даже и квотирование, то как это можно реализовать?

А что Google подразумевает под "показами"? Если число кликов в серпе считать можно, то считать показы каждой страницы выдачи и хранить результаты более чем накладно. Я думаю что под показами имеется ввиду сумма спроса по запросам, находящимся в топ-10....топ-50 умноженное на месячный спрос.

А если говорить про теорию заговора, то как работает алгоритм? Если сайт достиг разрешенной планки, google блокирует путь наверх по другим запросам? Или до обеда показывает сайт на 1 месте, а после обеда на 5? Извините, но обе версии похожи на бред =)

PR это не ТИЦ, он зависит не только от внешних ссылок, но и от внутренних. Видел результаты эксперимента 2-х годичной давности, где перелинковывали 2 молодых сайта с основным упором на морды: после апдейта PR вырос до 4 на обоих. Также в последний апдейт видел сайт с ссылками только из соц сетей, PR вырос с 0 до 3.

Второй сайт точно словил пингвина, а у первого изначально было сильное отставание от яндекса. Вполне возможно что на сайт еще ранее был наложен фильтр панды за некачественный контент. PS на графиках информация полугодичной давности, сейчас с сайтами что, если не секрет? =)

1. Смотря сколько внутренних страниц и какой у них вес. Чтобы прокачать именно главную страницу нужно минимизировать число ссылок с нее и увеличивать число ссылок на нее (что помоему и так понятно). Знаю пример,когда 2 новых интернет магазина по 1000-1500 страниц перелинковывали между собой и получали в первый апдейт PR=3 на морде.

2. 120 ссылок не с нулевым PR, а с равным 0,00001-0,999999. Любая страница имеет вес, только барный PR отличается от действующего и округляется.

Всего: 57