Роботс намучено не пойми чего, пристутствуют
директивы для Яндекса, но не выделенные для него,
+ походу лишние директивы - читайте о составлении
robots.txt
По тексту - намучено с ноиндекс - число открытых
не соответствует закрытым.
Сама зона com не располагает к быстрой индексации
Яндексом. Пока то он разберется что контент русский
и прочее.
Зачем закрыта индексация.
Уберите слеш в диззаллоу.
Правильнее уж так
User-agent: Yandex
Disallow:
Host: www.center-law.ru
User-agent: *
Судя по запросам по кругу ключей форекс - посещаемость
должна быть и довольно высокая.
Положим не по всем, но суть не в этом. Ключ ключу рознь,
исходя из числа запросов по нему. Если вы выбрали ключ
с 2 запросами в месяц - какую посещемость вы ожидаете ?
Осталось ждать.
Когда Я. раззеркалит и поставит все по новому.
Иногда довольно долгая процедура.
и тут в роботсе хорошо б прописать новый хост
учитывая что сайт в индексе пока с www
Есть ведь поиск
и рецепты найдете что делать
Если по роботсу, там и директива хост ни к селу ни к городу.
Хотя ошибка и не должна так повлиять.
Нормальный чай с сахаром не пьют. Отбивает аромат и вкус сбивает.
Если уж хочется пить с чем то , то лучше в прикуску ))
А напрямую восстановить данные. Есть же регистрация вроде.
Ну и воспользуйся функцией восстановить пароль.
Или уже и мейл не помниш.
http://webmaster.yandex.ru/add.xml
Все таки что то не то. Один сервис говорит что роботса нет
http://www.be1.ru/stat/?url=http%3A%2F%2Fwww.voropay.ru%2F
, другой выдает наличие в нем "Ошибка! robots.txt содержит html теги! "
что вы там намудрили