1. Ссылки еще не проиндексировались или ссылочное не пересчиталось.
2. Сайт плохо оптимизирован - нерелевантный текст, "тошнота", не прописаны title и h1.
3. запрос не коммерческий, а информационный. Тут на одних покупных ссылках не получится удержаться в топе.
Да, если сайты уже склеились, то да.
Проверить можно сделав запрос - url:site.ru | url:www.site.ru
Должна быть одна страница, с www или без.
Правильно и так, и так.
Это просто назначение главного зеркала (для поисковиков www.site и просто site.ru - два разных сайта).
Если раньше было без www, то пишите без www.
Вы релевантность продвигаемых страниц оценивали?
Возможно, блок новостей ее подпортил?
Там кстати какая-то ерунда с кодировкой
Бота зовут просто Yandex. Но можно его и не прописывать отдельно.
Так тоже будет работать:
User-agent: *
Host: site.com
Host идет после Dissalow
Так вероятно есть какой-то алгоритм фильтрации: робот находит по каким-то признакам подозрительные сайты и потом накладывает фильтр сразу на все сайты.
Какой смысл смотреть IP или WHOIS? Эта информация ничего не даст о содержании сайта и его полезности/бесполезности.
...да...
Host: site.ru
Хост не был прописан, поэтому зеркальщик и переклеил. Пропишите хост, через 2-4 недели все вернется (как повезет, зеркальщика натравить на сайт не получается, в отличие от обычного паука, но, максимум, месяц).
Не смотрит Яндекс ни Хуих, ни ЦМС, ни IP, и не банит "сетки", за то что они просто "сетки". У человека не может 10 сайтов? Он не может их перелинковать?
Яндекс мог посчитать сайты фотогалереями, причем состоящими из неуникальных картинок и выкинуть из индекса. А мог выкинуть за поисковый спам (списки запросов).
Это какая-то персональная выдача... Какой браузер у Вас стоит?
ТС, видимо, только что догадался, что такое Директ...