Дело в том, что этот форум все-таки больше посвящен вопросам позиционирования сайтов в поисковиках, а вот вопросы технологии разработки поисковых систем действительно пользуются небольшой популярностью. Однако этот форум регулярно посещают разработчики Яндекса (iseg, melkov, wawa), Рамблера (vs, Keva) и Апорта (misha). Может, они с Вами подискутируют.
Дело в том, что после регистрации домена второго уровня ссылка на него вполне может появиться на известном Гуглю ресурсе без ведома владельца домена - например на сайте регистранта или в каком-нибудь хранилище доменных имен второго уровня.
А каких трудов? Метапоисковики ведь используют результаты выдачи других поисковых машин, и хорошие позиции в них выводят тебя на хорошие позиции в метапоисковиках. А с поисовыми машинами надо работать в любом случае.
А чем плохи дорвеи? Главное, чтоб выглядили они достойно.
Мне думается, дело немножко в другом. Похоже на то, что Гугль поступил также, как в свое время Яндекс, которые вообще перестал учитывать текст ссылок со страниц с ВИЦ, меньшим определенной величины (т.е. поставил своеобразную планку для страниц по учету ссылочного ранжирования). Потому что такие ссылки с богом забытых домашних страниц Васи Пупкина и выводили сайт Майкрософта, благодаря его большому ВИЦу, на первую страницу по запросу геморрой. Такая же ситуация по последнего апдейта наблюдалась и в Гугле. А установив подобную планку, можно избавиться от данной "шумовой" составляющей. А вот влияние текста ссылок со страниц с большим PR, я думаю, осталось прежним. В этом случае должны были, в первую очередь, пострадать страницы с неплохим PR, имеющие много тестовых ссылок со страниц с низким PR, упав по запросам, ключевые слова из которых встречались в текстах этих ссылок.
Сайт на флеше. Ссылка - на JavaScript'е. Видимо, у тебя отключена поддержка этих вещей.
У меня наоборот главная страница упрочила свои позиции, а многие внутренние попадали вниз. Правда, я сложа руки не сижу. ;)
Не думаю. Я лично ухудшение качества поиска не заметил.
Я бы не сказал, что особо сильно
Пересмотром сайтов занимается DMOZ, у которого Гугль берет базу для каталога. Битые ссылки там отслеживает робот по имени Robozilla. А периодичность пересмотра описания сайтов в каталоге зависит от конкретного редактора конкретной категории.
Что-то они в последнее время экспериментируют с выдачей primary results из lookSmart'а (или это LookSmart экспериментирует с поиском по своему каталогу). Она-то всю картину и портит.
Еще раз большое спасибо - поздравлениям "второй волны"
А ВИЦ - это взвешенный ИЦ, т.е. ссылки на страницу учитываются с весами
Не само присутствие, а наличие ключевых слов в заголовке и описании сайта в каталоге