ensueno

Рейтинг
10
Регистрация
09.04.2004
Как писал Lord Maverik


А что есть провинившийся? Бан? НО ПР на месте, в выдаче есть если набирать текст с тех страниц что остались. Бэкварды тоже есть, те что были по крайней мере.

в данном случае провинившиеся это склеенные близнецы, на счёт бана и

пр-а гугл может и потормозить раз слоны раздаются автоматом\фильтром\апдейтом

а не ручками, но вполне разумно было бы с их стороны просто

выкидывать спам, без обобщений на сайт и без всяких наказаний -

просто если ничего кроме спама там не было он сам утонет.



А то что на первом месте пустая страница то ваще глюк.

говорят же тебе - "ТЕНДЕНЦИЯ!" :)))

Как писал AlexB


Как то месяц назад я такое видел по одному очень популярному запросу. И такие дела происходили непосредственно за недельки две (может чуть меньше до апдейта).

Что интересно у одного сайта ещё можно было свалить это на похожесть контента, но страницы другого сайта были абсолютно разные по контенту.

Возможно если страница имеет ПР меньше какого то значения известного только гуглу и у гугла есть хоть какой то зацеп к этому сайту/странице, то он его/её клеет и делает её недоступной в серпах. Когда сайт выходит из этих рамок он его разбанивает. Хороший метод борьбы со спамом получается...

То, что такие случаи происходят массово перед большим пересчётом

всего и вся может говорить о том, что гугл чистит свою базу от

страниц которые по его мнению не значимы для базы в целом, к

примеру не имеют внешних ссылок и т.п. т.е. оставляет только тех кто

будет участвовать в пересчёте.

с общим напрвлением мысли согласен - гугл оценивает страницы по

какому-то критерию и и решает "казнить нельзя помиловать", и видимо

этот процесс не разовый, а как и весь гугл последнее время

непрерывно-волнообразный. Интересно будет посмотреть что останется на

дне кастрюли к осени (к выпуску их ценных бумаг)..... а на счёт банов

повторюсь - это пройденный этап, скорее всего ребята просто написали

очень хорошие саморегулирующиеся уравнения которые и играют роль

фильтров (как к примеру с той же пресловутой пенализацией за

переоптимизацию). Такой подход имеет одно очень нужное сегодня гуглоидам

преимущество - никто не сможет сказать (a'la Florida)"мой ништяцкий сайт был

выброшен из базы ни за что ни про что! Разве могут акции такого

"слепого" поисковика стоить так дорого??!!" т.к. вымывается только

откровенная гнильца... понастраивают они конечно ещё свои фильтры,

покрутят крутилочки...А баны в чистом виде это уже для 100% клинических случаев.

Как писал ferrum
А может просто у них база ссылок и снипеты в разных местах физически расположены (что скорее всего так и есть), и периодически у них винты со снипетами сыплются? :)

Сниппетов не просто нет, сама ссылка имеет другой, я бы сказал весьма

нездоровый вид, т.е. сразу видно что страницы так обозначаемые не

вполне ещё члены так сказать клуба, или уже не вполне.

Вполне вероятно ведь... Все равно ведь кэш обновляет каждый день - долго ли его восстановить, вот и хранят его на самых дешевых винтах.
шутка. хотя и не совсем веселая - сам страдал.

Ну да, на одном. Китайском. Да и тот постоянно ремонтируют, так как

копят деньги на апгрейд спектрумов... где-то мелькнула

информация, что вся база занимает чуть больше 4-х гигабайт, так что...

Как писал Lord Maverik


Ну он молодец то знает :) Он и раньше о них знал, только раньше знал нормально а теперь как то как буlnj и незнает уже вовсе.

Вот кстати у меня тоже все склеялось. Показывает одну страницу, все остальное видно только если сказать ему чтобы показывал все.

Не хочу никого пугать и наводить на грустные мысли, однако.. месяц

назад принудительно удалил из гугла порядка 80-ти страниц

(легализоваться то есть решил ;) так вот, в течении последующих 2-3-

недель наблюдал с заявленными на удаление страницами абсолютно

аналогичную картину, сначала удаление сниппета и зелёной ссылки а в

последствии и самой страницы(процесс происходит как бы в несколько этапов).

Мысли по этому поводу такие, теперь он не просто склеивает похожие

по его мнению страницы, но и аккуратными брикетами посылает их

извините в ж....

Таким образом возможно это именно то о чём мы тут и говорили в начале

мая - все провинившиеся будут не просто наказываться, а сноситься с

доски напрочь....... толи ещё будет, ой-ё-ёй... Сегодня кстати видел такую

"синюю" ссылку на первом месте выдачи. без описания без ничего. Что бы

сие-то могло значить? поместить на первое место страницу о которой

формально ничего неизвестно :\.....

Как писал IDL
плотность фраз 5% при размере файла 2К или плотность 2% при размере 25К

Во-первых логичнее объём страниц сразу считать в словах, а не в килобайтах, а то переводные коэффициенты будут слегка .. не тривиальные ;)

Что важнее для гугла будет(ну предположим,что всё остальное у них однинаково)?

Всё остальное не будет одинаково, так как к примеру расчитывается "вес" каждого слова по отношению к общему количеству слов на странице, и если пропорция "ключевое слово/все слова" у двух страниц разная то и для гугла они будут "весить" по разному, та же история с "keyword prominence"

И вообще гугль считает как-нибудь соотношение плотности и размера файлов ?

А оно ему нада? верхняя планка размера пожираемого файла может и есть, но врятли к размеру страницы в кб прикручено что-либо ещё. А вот "вес" и "prominence" ключевых слов в разных частях страницы(title,body,alt etc.) вещи важные, тюнинг так сказать ;)

Как писал Cossack
Скорее в "чапаева", все что снесено, то снесено... нафиг!

Согласен, ребята вышли на рынок с первоначальным размещением, им сейчас кровь из носу нужно обеспечить образцово-показательные читстоту и релевантность выдачи и что там они ещё потенциальным акционерам напели, на webproworld недавно появилась журналистка с NY Times и в открытую зазывала к себе на беседу круто пострадавших от гуглоидов, так что давление на них есть и теперь будет очень сильное - им надо думать о больших деньгах, по этому гайки они будут крутить крепко, изобретательно и на долго. Думаю будут действительно сносить под ноль выявленные мутные пятна целиком, без всяких банлиство - просто полное удаление из базы и в конец очереди что называется на есстественное восстановление, а это месяцы... Так что интересные времена наступают... ;)

Как писал guru
У всех, у всех.
В Яндексе поднялся, в Гугле упал. Плохо.
Почему-то в Гугле некоторые бекварды исчезли.

Согласен, в Гугле упал, бэкварды не просто исчезли - разница на

64.233.161.98 (www.google.com аналогично)

и

216.239.37.99 - 100% т.е. два абсолютно не совпадающих списка, кроме того, на данный момент вообще отсутствуют ссылки со страниц которые существуют и имеют PR... Так и хочется процитировать известную фразу уже всплывшую в соседней ветке: "Как страшно жить...." :) Будем надеятся что это всего лишь новая метода пересчёта PR-а. Хотя может это его так давно предрекаемая кончина? Предлагаю до выяснения всем тихонечко попеть известную песню, которую можно считать в своём роде гимном здесь присутствующих:

"Надо только выучиться ждать,

Надо быть спокойным и упрямым..." :))

Как писал wolf


Угу, и чтобы забанить конкурента, надо будет просто набрать его адрес в строке браузера. Сильно придумано :)

Нехочется скрупулёзничать, но тут всё по-взрослому похоже. С математикой у ребят всё хорошо, учитывая специфику их работы, и при хорошей посещаемости обладателей баров тоже будет достаточно для накопления статистики. При превышении определённого уровня которой совсем не обязательно сразу следует бан, а к примеру генерится спам-саспекшн репорт человеку, для более ручной проверки. Да и мне кажется проблематично при правильной постановке дела у тулбара переходить куда-то не нажимая кнопок ;) Словом технически вполне реализуемо...

Как писал wolf


Тут могло быть все гораздо проще - банальный стук...

Могло, но ведь хочется верить в красивое ;) Кстати можно отслеживать даже не паузы, а переход на другую страницу при отсутствии клика мыши - проще уже некуда, так что думаю всё это если не присутствует сейчас, то обязательно появится...

Как писал Interitus
Ну то что больше 31 позволяется - точно. Насчет лимита не знаю, но я бы поостерегся делать урлы длиннее 255 символов.

Я имею ввиду не полный URL, а длину имён файлов конкретных страниц, Adobe GoLive её ограничил 31-м символом, вот я и подумал про возможное "не сварение" у поисковых ботов. Может такое быть?

Всего: 52