в данном случае провинившиеся это склеенные близнецы, на счёт бана и
пр-а гугл может и потормозить раз слоны раздаются автоматом\фильтром\апдейтом
а не ручками, но вполне разумно было бы с их стороны просто
выкидывать спам, без обобщений на сайт и без всяких наказаний -
просто если ничего кроме спама там не было он сам утонет.
говорят же тебе - "ТЕНДЕНЦИЯ!" :)))
То, что такие случаи происходят массово перед большим пересчётом
всего и вся может говорить о том, что гугл чистит свою базу от
страниц которые по его мнению не значимы для базы в целом, к
примеру не имеют внешних ссылок и т.п. т.е. оставляет только тех кто
будет участвовать в пересчёте.
с общим напрвлением мысли согласен - гугл оценивает страницы по
какому-то критерию и и решает "казнить нельзя помиловать", и видимо
этот процесс не разовый, а как и весь гугл последнее время
непрерывно-волнообразный. Интересно будет посмотреть что останется на
дне кастрюли к осени (к выпуску их ценных бумаг)..... а на счёт банов
повторюсь - это пройденный этап, скорее всего ребята просто написали
очень хорошие саморегулирующиеся уравнения которые и играют роль
фильтров (как к примеру с той же пресловутой пенализацией за
переоптимизацию). Такой подход имеет одно очень нужное сегодня гуглоидам
преимущество - никто не сможет сказать (a'la Florida)"мой ништяцкий сайт был
выброшен из базы ни за что ни про что! Разве могут акции такого
"слепого" поисковика стоить так дорого??!!" т.к. вымывается только
откровенная гнильца... понастраивают они конечно ещё свои фильтры,
покрутят крутилочки...А баны в чистом виде это уже для 100% клинических случаев.
Сниппетов не просто нет, сама ссылка имеет другой, я бы сказал весьма
нездоровый вид, т.е. сразу видно что страницы так обозначаемые не
вполне ещё члены так сказать клуба, или уже не вполне.
Ну да, на одном. Китайском. Да и тот постоянно ремонтируют, так как
копят деньги на апгрейд спектрумов... где-то мелькнула
информация, что вся база занимает чуть больше 4-х гигабайт, так что...
Не хочу никого пугать и наводить на грустные мысли, однако.. месяц
назад принудительно удалил из гугла порядка 80-ти страниц
(легализоваться то есть решил ;) так вот, в течении последующих 2-3-
недель наблюдал с заявленными на удаление страницами абсолютно
аналогичную картину, сначала удаление сниппета и зелёной ссылки а в
последствии и самой страницы(процесс происходит как бы в несколько этапов).
Мысли по этому поводу такие, теперь он не просто склеивает похожие
по его мнению страницы, но и аккуратными брикетами посылает их
извините в ж....
Таким образом возможно это именно то о чём мы тут и говорили в начале
мая - все провинившиеся будут не просто наказываться, а сноситься с
доски напрочь....... толи ещё будет, ой-ё-ёй... Сегодня кстати видел такую
"синюю" ссылку на первом месте выдачи. без описания без ничего. Что бы
сие-то могло значить? поместить на первое место страницу о которой
формально ничего неизвестно :\.....
Во-первых логичнее объём страниц сразу считать в словах, а не в килобайтах, а то переводные коэффициенты будут слегка .. не тривиальные ;)
Всё остальное не будет одинаково, так как к примеру расчитывается "вес" каждого слова по отношению к общему количеству слов на странице, и если пропорция "ключевое слово/все слова" у двух страниц разная то и для гугла они будут "весить" по разному, та же история с "keyword prominence"
А оно ему нада? верхняя планка размера пожираемого файла может и есть, но врятли к размеру страницы в кб прикручено что-либо ещё. А вот "вес" и "prominence" ключевых слов в разных частях страницы(title,body,alt etc.) вещи важные, тюнинг так сказать ;)
Согласен, ребята вышли на рынок с первоначальным размещением, им сейчас кровь из носу нужно обеспечить образцово-показательные читстоту и релевантность выдачи и что там они ещё потенциальным акционерам напели, на webproworld недавно появилась журналистка с NY Times и в открытую зазывала к себе на беседу круто пострадавших от гуглоидов, так что давление на них есть и теперь будет очень сильное - им надо думать о больших деньгах, по этому гайки они будут крутить крепко, изобретательно и на долго. Думаю будут действительно сносить под ноль выявленные мутные пятна целиком, без всяких банлиство - просто полное удаление из базы и в конец очереди что называется на есстественное восстановление, а это месяцы... Так что интересные времена наступают... ;)
Согласен, в Гугле упал, бэкварды не просто исчезли - разница на
64.233.161.98 (www.google.com аналогично)
и
216.239.37.99 - 100% т.е. два абсолютно не совпадающих списка, кроме того, на данный момент вообще отсутствуют ссылки со страниц которые существуют и имеют PR... Так и хочется процитировать известную фразу уже всплывшую в соседней ветке: "Как страшно жить...." :) Будем надеятся что это всего лишь новая метода пересчёта PR-а. Хотя может это его так давно предрекаемая кончина? Предлагаю до выяснения всем тихонечко попеть известную песню, которую можно считать в своём роде гимном здесь присутствующих:
"Надо только выучиться ждать,
Надо быть спокойным и упрямым..." :))
Нехочется скрупулёзничать, но тут всё по-взрослому похоже. С математикой у ребят всё хорошо, учитывая специфику их работы, и при хорошей посещаемости обладателей баров тоже будет достаточно для накопления статистики. При превышении определённого уровня которой совсем не обязательно сразу следует бан, а к примеру генерится спам-саспекшн репорт человеку, для более ручной проверки. Да и мне кажется проблематично при правильной постановке дела у тулбара переходить куда-то не нажимая кнопок ;) Словом технически вполне реализуемо...
Могло, но ведь хочется верить в красивое ;) Кстати можно отслеживать даже не паузы, а переход на другую страницу при отсутствии клика мыши - проще уже некуда, так что думаю всё это если не присутствует сейчас, то обязательно появится...
Я имею ввиду не полный URL, а длину имён файлов конкретных страниц, Adobe GoLive её ограничил 31-м символом, вот я и подумал про возможное "не сварение" у поисковых ботов. Может такое быть?