Вообще-то мне тоже стало интересно. Один сайт имеет в Гугле около 100.000 проиндексированных страниц, а в Yahoo больше миллиона. Вот я и чешу репу сейчас: где это они нашли миллион страниц?
Кстати тоже самое с бэклинками: 3.000 и 150.000
Кто нибудь имеет мысль?
Народ, может кто обьяснит в чем тут юмор?
Что-то я никак не вьеду ...
Да нет, конечно. В данном случае, наверное другие факторы есть.
Просто каталог - это каталог, на нем и написано, что он - каталог. А если сайт не каталог, а на нем, кроме ссылок ничего нет, то я думаю, что гугли не в восторге от такого.
А насчет клонов DMOZ-а, я думаю, что и это не за горами.
P.S. А в данном случае, скорее всего по стуку.
Тут мне поставили минус в репутацию, но дело не в этом - я на это не реагирую, но еще написали комментарий. Судя по всему, один из редакторов DMOZ-а:
за "размещение сообщений, вводящих в заблуждение других пользователей форума."
Так вот я еще раз хочу повторить:
в DMOZ-е бардак, редакторы пропихивают свои сайты или сайты друзей, любой может легко найти десятки страниц одних и тех же сайтов, находящиеся в разных директориях. Практически в любой директории, можно найти сайты которые не годятся даже для директории "имени Васи Пупкина". Некоторые сайты из DMOZ-а в гугловском каталоге имеют PR=0 => на них никто не ссылается вообще.
Редакторам: когда у вас в DMOZ-е будет идеальный порядок, поскольку вы претендуете на топ-каталог Интернета, тогда будете здесь свои дурацкие комментарии мне в "репу" писать. А до этого, я бы на вашем месте засучил рукава и убрал бы в собственной квартире.
Ну, ну ... :)
Это уже тоже было. Потом через пару месяцев, здесь появляются посты типа: "Помогите! Сайт уехал на 500-ую позицию! А так все хорошо начиналось!"
Я пока вижу, как "в хвост и в гриву" имеют некоторые "оптимизированные" сайты. Преимущественно "недоношенные", которыми занимались "пару месяцев"
Так мне вроде хватает пока учения. А если не хватает, я твои посты еще раз внимательно перечитываю. :)
Я замечал, что в основном по низкочастотникам, где то недельку до и недельку-две после некоторые сайты вылазят наверх, обычно те, которые накачаны "оптимизацией" больше некоторого предела. Такое впечатление, что Гугл проводит пересчет в два(три,четыре?) этапа. На первом учитывает технические параметры, типа плотности кейвордов, ссылки, а на втором корректирует индекс по "старости", "авторитетности" и прочим "человеческим" параметрам. Это упрощенная схема. На самом деле, я думаю, учитывается очень много факторов. И чем дальше, тем более "человеческие" параметры будут играть роль.
Перед апдейтами они всегда наверх подымаются. Я это уже не первый раз замечаю.
Если быть точным и покопаться в форуме, то посты с жалобами на понижение в SERP-е сайтов на базе партнерок появились еще раньше: в мае-июне.
Эх вы! Человек можно сказать о серьезной вещи спросил, а вы его Стругацкими, да по мордам, по мордам ... :D
Энтропия - это бардак. Вы видели когда-нибудь, что бы бардак уменьшался со временем сам по себе? (пример с кладбищем не приводить!)
Это с учетом вероятности. Но при бесконечности любая вероятность будет равна 0.9(9), если принять абсолютную вероятность за единицу.
Т. е. Lor-ы будут похожи между собой на 99.9(9)%