Когда же теперь ожидать глубокого кроулинга ??
Устал уже ждать 😡
Скорее всего в статье речь о том, что гугл вычисляет вероятность клика по каждой из ссылок на странице.
Как это используется и как вычисляется вероятность - можно только гадать.
Что-то в последнее время гуглбот как-то вяло работает.
На новом домене в прошлом месяце скачал только 3 страницы.
В этом месяце танцы уже вроде бы закончились.
А я не вижу глубокого кроулинга. Смотрел логи на 4 доменах..
Как то очень странно это.
Танца, как такового не было.
А база данных обновилась. У меня как минимум один новый сайт попал в базу.
И в кэше страницы от 5 января сего года.
Присоединяюсь к поздравлениям.
Пусть новый год будет счастливым.
Пусть каждый гугл дэнс будет праздником !
Странное дело.
Многие странички, которые раньше были в первой десятке - упали на 50 - 100 место.
Некоторые другие радикально поднялись.
Очень странный этот апдэйт.
И ещё мне кажется, что большое количество ключевых слов в домене и имени файла теперь не помогает, а вредит. У кого-то есть подобные наблюдения ?
Гугль великолепно вычисляет линки с гостевых книг.
Передаваемый ими пэйдж ранк очень - очень мал. В 1000 или в 10000 раз меньше, чем можно ожидать, исходя из классической формулы PR.
Проверено.
При этом есть реальный шанс заработать дополнительную очень тщательную проверку на вшивость. С участием живого человека.
Интересно.
pp.ru Гугл считает халявным хостингом ?
Идея просто взять количеством весьма занимательна.
Но упомянутый выше tripadvisor.com/ содержит около 150К паг.
Это ой как не хило.
По моим наблюдениям первое слагаемое в классической формуле PR может очень сильно варьироваться. От чего в точности это зависит - не понимаю. Но, вроде, уникальность текста очень важна.
Может кто-то подробнее изучал эту тему ?
Поделитесь плииз, инфой.
Можно взглянуть на урлы легендарных сайтов, которые поимели большой PR
только за счёт внутренних страниц ?
Количество страничек по всем запросам уменьшилось на 5-10%
У всех такая картина ?