так зайди на рамблер и добавь .. в чем проблема - то ...
не растраивайся .. Balabas возможно и блефует :)
я прочитал ... но не понял ... или ты имеешь ввиду их подписку на инфу ?
на обиженных воду возят :)
а программуля вроде из другой темы ... биды что-ли смотреть на разных пипиеськах .... надо глянуть ..
мдаа ... тогда надо дальше думать ...
Ха :) вот я тебя Balabass и выманил :)
я точно знал что ты мимо не пройдешь :)
Твое утверждение мне понятно и я его предвидел ... только ты не договариваешь очень важный факт ... дор крутиться в очень динамичном .. как бы это выразить и не сболтнуть лишнего .... в динамичном информационном потоке .. :)
ну что-ж .. вполне возможно ... если все факторы совпали ...
но все равно представьте себе сколько мусора было отброшено .. это-ж страшно подумать ... хотя и пострадали и нормальные сайты ... но если они нормальный и будут вести себя нормально ( среднестатистически ) то будут и они в выдаче ... вопрос только когда ..
конечно фильтр не навсегда и не потому что его отменят ... скорее выкинут за ненадобностью, когда широкие массы дорвейщиков подберут правильный алгоритм ... и тогда уже надо точно его отключать .. так как критическая масса дорвеев обошедших фильтр не дадут вообще никаких шансов нормальным сайтам ... вот так и будет постоянная борьба добра с гуглей :)
Давайте я попытаюсь обрисовать логику от имени Гугли ( конечно всё ИМХО) :)
1.Я Гугля
2.Ко мне приходит много жалоб на дорвеи...оно конечно вреда большого они не приносят и редиректят строго по запросу, но блин.. этак они меня вообще скоро подменят ... надо что-то делать.
3.начинаем анализировать ... дорвеев ввиду их низкой себестоимости лепят очень много.
4.Раз их много, то менять на них информацию, как это делаеться на обычных сайтах - некому ( запомним - фактор 1 )
5. На всех дорвеях присутствует высокая плотность ключевых слов ( фактор 2 )
6. на всех дорвеях если нет высокой плотности то значит наверняка повторяемость ключевого слова не соотвествует нормальному распределению ( фактор 3 )
7.Если хитромудрый дорвейщик рандомит скриптом контент - проверяем на фактор 3 ( фактор 4 )
8 я гугля - обладая большими статистическими данными знаю одну секретную цифру .... среднестатистическое появление ссылок на новый сайт с других ресурсов ... как по времени так и по колличеству ( фактор 5 )
Зная еще кой чего, что тебе тупой greenwood неизвестно, я создаю следующий фильтр для всех новых сайтов :
появился новый сайт - индексирую и присваиваю ему индекс-N ( новичек) - это значит ... вообще его не выдавать ни по одному запросу ... пусть милок полежит, а я как появится на него новая ссылка вот тогда приду и посмотрю и померяю его на фактор-2 ... если плотность высокая я банить не буду ... не царское это дело .... да и хрен его знает ... может там все по уму .. но придам ему статус N - (минус).
Через два дня я обнаружила еще одну ссылку ... захожу по ней на сайт и сравниваю содержимое сайта с первоначальным кэшем ... ничего не поменялось ... ставлю статус ( N два минуса плюс один плюс ) N - - + плюс за ссылку по правильному ее появлению ( та секретная цифра )
Прошел месяц - по это схеме у меня вырисовываеться уже общая картина по этому сайту и я начинаю его выпускать в люди или не выпускать ...
Вот примерно так я себе представляю ... и конечно все сложнее на самом деле ... но тем не менее данным фильтром решаеться две проблемы ..
1. уменьшить колличество дорвеев
2. уменьшить в выдаче сайты которые не несут новую информацию или вообще заброшены..
только для новых ... пока так замечено
если не принимать мер описанных выше ( может есть и другие мне неизвестные ) , то можно застрять и навсегда.
мои наблюдения ( очень внимательные ) - это 1,5 месяца и притом что всячески делаеться имитация что сайт живой ... тяжелый труд надо сказать ..
что самое интересное, что фильтр даже по супер-низкочастотникам поблажек не дает ..я бы даже сказал большее - по высокочастотникам , как мне показалось да-же несколько попроще дела обстоят ... видимо там гугля чаще гуляет ..