Да, будет.
http://yandex.ru/yandsearch?text=%D1%85%D0%B0%D1%80%D0%BB%D0%B0%D0%BC%D0%BE%D0%B2&lr=213 - см., к примеру, 39 место (сниппет URL) - allomir.com›xarlamov.html
Если есть возможность, лучше взять сочетание "kh" нежели "x".
Скоро дотянут и до топ-10 (топ-6 уже есть): http://yandex.ru/yandsearch?text=armstrong&lr=213
Сорри, не заметил месяцы (слона и не приметил, дважды :) ). Но сути это не меняет. Я лишь выдвинул предположение, что скрытый индекс он не обновляет так, как обычный (по какой-то причине). Были бы еще данные по сайтам с АГС - тогда можно было бы и точнее сказать. А так - просто гипотеза.
Вообще-то вы писали:
Причем тут 2-3 месяца?
Далее я писал:
Ведь сами писали, что другие страницы (25 новых) в индексе появились только после снятия АГС (а раз документов в индексе существенно больше 10-ти - это, почти наверняка, отсутствие фильтра АГС).
У меня нет сайтов под АГС, поэтому я не знаю как часто на них бывает робот и меняются ли сохраненки (точнее, как часто меняются) на тех страницах, что еще находятся в видимом индексе.
Тут дело может быть в другом. Скорее всего он считает, что с сайтом проблемы (софт, хард - не важно) и поэтому страницы с ошибками из индекса удалять не стал (таймаут какой-то есть).
По своим проектам замечал, что если сервер отдает ошибку, к примеру, 404 или 500, то такие документы могут несколько апов храниться в том виде, в которым они были до возникновения ошибки.
А АГС, видимо, просто был поводом не индексировать сайт длительное время. Ведь ни для кого не серкет, что сайты/документы под АГС находятся в скрытом индексе, просто он, как показал ваш пример, не обновляется.
Судя по всему, следующее предложение из первоначального вы не заметили:
Это же и к редиректу относится, т.к. документ (по факту), после установки редиректа перестанет существовать. Да, и скорее всего, он просто выберет другой (возможно еще менее релевантный) документ на старом сайте взамен редиректного.
p.s. Эксперимент продолжается. Просто апдейты очень редкие в последнее время. Если удастся без серьезных потерь восстановить нужный документ по запросу - отпишусь.
Если бы все так было просто, я б в этой теме не отписался:
В том-то и проблема, что он выбрал случайно (или специально, менее релевантный) документ.
У одного клиента (три сайта, все "аффилированны" между собой) сложилась аналогичная ситуация. По одному из ВЧ ВК вышел старый заброшенный сайт. Писали Платону по данной проблеме. Его рекомендация - удалить старый сайт из индекса (посредством robots.txt).
Делать этого совершенно не хочется, т.к. статический вес у старого сайта существенный и ссылки проставлены почти с каждой страницы на нужный раздел (с нужным текстом ссылки) основного сайта. Причем, произошло это более 2-х месяцев назад. Предприняли несколько шагов, обычных для данной ситуации (фильтра аффилиата), - не помогло :(
Возможно проблема связана с тем, что Яндекс с какого-то перепуга стал в HTTP заголовках со вчерашнего дня (28.01.2012) отдавать два раза заголовок "Transfer-Encoding: chunked".
Т.е. сейчас это выглядит примерно так:
HTTP/1.1 200 OK
Connection: Keep-Alive
Date: Sat, 28 Jan 2012 20:54:51 GMT
Server: Apache/2.2.9 (Unix) mod_perl/2.0.4 Perl/v5.12.1
Cache-Control: private, max-age=3600
Content-Type: text/html; charset=utf-8
Expires: Sat, 28 Jan 2012 21:54:51 GMT
Vary: Accept-Encoding
Content-Encoding: gzip
Connection: close
Transfer-Encoding: chunkedTransfer-Encoding: chunked
Из-за этого у нас на перле прога слетела по съему позиций, т.к. в модуле Net::HTTP::Methods это не может быть правильно обработано.
Ошибка: X-Died: Can't handle transfer encoding 'chunked,chunked'.
Пришлось самим фиксить в модуле этот баг :)
Уже обсуждали данный вопрос. Просто добавьте в NOD32 в исключения с маской: http://hghltd.yandex.net* - и все будет нормально :)