Intel

Рейтинг
85
Регистрация
12.01.2011
Должность
Пока что мотает
Толстый и красивый

Random думаю, показывает несколько случайных ссылок, не переходов по ним особенно нет, ни PR-a. Иногда меняет. В WMT показывает гораздо больше хотя все ровно не все.

Willie:
На самом деле влияние числа отказов сильно преувеличино. Более того, оно близко к нулю.

Дело в том, что есть категории сайтов, где так называемых "отказов" очень много. И даже так: чем их больше - тем сайт объективно лучше. Пример: вы ищите справочную информацию - например, описание микросхемы или перевод слова. Если вы попали на страницу сайта, где найдено искомое - ну зачем вам ходить по нему, искать другие микросхемы или слова?!

Из личной практики: люди часто ищут тариф ОСАГО для своего региона (на автостраховании) или ставку какого-то налога (на налогах). Попадают на целевую страницу, выписывают нужные данные и закрывают сайт. Разве это не показатель полезности? И Гугол такие вещи прекрасно понимает.

Еще пример: вы ищите "скачать песню про зайцев". На хорошем сайте вы сразу попадаете на целевую страницу, скачиваете эту песню и уходите. Так? А вот на плохом начинается мотанье по ссылкам: "песня про зайцев" -> "лучшие песенки про зайчиков" -> "скачать бесплатно" -> "скачать еще бесплатнее" -> "пришлите СМС и будет вам щщастье". Ни разу на такое не попадали?

Логично, но думаю все ненмного сложнее. Гугл использует алгоритмы статистического анализа. Видя почти весь интернет, у гугла есть возможность сравнивать. Классифицироавть сайты по разным параметрам - тематика, география и профиль среднего пользователя сайта, итд. и сравнивать сайты по множеству параметров внутри различных классов. Так вот если какой-то из параметров среди сравниваемых в одном классе сайтов сильно отличается от средне статистиьеского по другим сайтам, это заставляет гугл насторожится. Применительно к вашему примеру если среди сайтов по поиску песни про зайцев, средний bounce rate - 75%, то сайт у которого этот параметр 95% сразу вызовет внимание гугла. Также и по другим параметрам (время на сайте, средний просмотр страниц, итд). Другими словами нет хороших / плохих значений параметров, есть значения которые значительно отклонены от того что должно было быть у данного сайта, и что в конечном итоге может вызвать проблему.

30% - это минимум в основном у сайта в пределах 30 - 40%, меняется с периодом приемерно две недели. Кажется гугл все время прощупывает, постепенно меняет позицию ключевиков и трафик по ним и переодически возвращает на место. А тут вдруг такой взрыв, резкий подьем по ненужному ВЧ, и катастрофический боунс рейт.

Кстати вчера все вернулось на место. Прежнее количество показов и bounce rate. Похоже гугл понял что ВЧ тут не к чему. :)

Хорошая мысль сгонять розничников на другую страницу. ☝ Спасибо! :)

Игорь ( Родной Портал):
Когда выпустят, тогда и будем о чём говорить.
Пока то, что есть сейчас в сапе, для буржунета не годится.

Почему? Есть же в сапе англоязычные сайты.

Sitemap есть у сайта? Сколько всего страниц?

Есть три сайта, сидят на разных IP, тематика одна, дизнайн, CMS - разные... НО... в одном акаунте гугла (WT, Analytics) 😂.

Двое из них по своим основным (НЧ) ключам в топ 10, google.com. Жду когда гугл их пессимизирует, пока что не произошло.

Думаю что нельзя. Если даже бот заходил, еще не факт что ПС сайт проиндексировал.

kievrent:

Это можно доказывать новичкам. А вот людям, которые давно в продвижении, подобное доказать совсем непросто.

Думаю кому либо доказывть будет не просто, у каждого свой опыт. ))

kievrent:

Давайте говорить не о догадках, а о примерах. Я такого не видел (в случаях с уник контентом и т.д.). Видел совсем обратное: такие сайты бодрее идут в ТОП.

Я себе трудно предтсвляю сайт с 120к страницами уник контента. Хотя все может быть.

Всего: 271