Таких специалистов уже не остановить. Даже, если на главной странице гугла будет написано, что это не так :)
Кроме, как поздравить с выводами, ничего не остается.
Чем больше специалистов, которые по одному сайту, по одной ссылке, по двум позициям могут делать выводы - тем лучше для рынка :)
ps. .edu сайты не имеют никакого преимущества перед другими, просто среди них много прокачанных естественными, старыми, пиаристыми внешними ссылками. Но, надо учитывать, что почти на всех таких сайтах, где можно поставить ссылку любому желающему, уже стоят 10k ссылок на виагру и payday loans.
http://www.youtube.com/watch?v=UxTmZulcQZ0&feature=player_embedded
Скорее всего, это происходит если стоят внешние ссылки прямо на robots.txt. Или, если часто открывать с google баром или в google chrome этот файл. А вообще, любой .txt файл может попасть в индекс.
С robots.txt в индексе сейчас полтора миллиона сайтов показывает: inurl:"robots.txt" +filetype:txt . И они действительно отсортированы логично :)
А зачем там регулярка? Просто в поле ввода введите подстроку:
Там есть существенный минус: если нападет какой-то зверек, типа панды или пингвина - может выкинуть весь сайт и все поддомены.
Где вы там увидели фильтр? Или все, что не на первом месте - это фильтр?
Видно хотят сделать лучше пользователям. Чтобы попасть на оригинал нужно будет прокликать все фишинговые сайты :)
Вы сейчас обсуждаете мокрая ли вода или нет. Потому-что один западный гуру усомнился в этом, а потом пришел к выводу, что таки да - мокрая, но немного суховатая.
Эксперимент настолько глупый, что можно было не переводить с английского, а найти сразу на русском на этом форуме в разделе для новичков в глубоком архиве.
Огласите тогда весь список, в чем конкретно отличия: 1, 2, 3 ...
Только кроме конкуренции, работы с синонимами/сокращениями и другими особенностями языков, к-ва асессоров и обрабатываемых ими тем, частоты апдейтов, задержки внедрения новых алгоритмов.
А в Гугле в курсе, что их алгоритмы для России сильно отличаются? :)