После смены CMS гугл начал воротить нос от сайтмапа

SeOToM
На сайте с 14.11.2009
Offline
126
375

В общем 2 дня назад поменяли дизайн и cms. Урлы остались прежними + добавилось немного страниц. Решил загрузить новый сайтмап в гугл, зашел в панель, а он мне уже пишет: "Обнаружены серьезные ошибки, связанные с состоянием сайта." Нажимаю на эту ссылку, он мне опять выдает: "Блокирует ли файл robots.txt важные страницы? Некоторые важные страницы блокируются в файле robots.txt." Перехожу по ссылке ещё раз и панель мне показывает Роботс с таким содержанием:

User-agent: *

Disallow: /

Откуда он взял такой роботс не понятно. Перезд был в ночь, поэтому с самого утра я загрузил роботс. Так вот теперь он не дает мне добавить сайтмап, из-за того, что ему мерещиться полный запрет на индексацию.

Как это исправить? Как загрузить ему в панель нормальный роботс?

---------- Добавлено 15.07.2012 в 23:17 ----------

В чем проблема, как мне кажется я нашел. Чертов друпал, где то у себя в закромах генерит роботс и отдаёт его роботам ПС первым, чем тот, который в корне. У кого сайты на друпал, подскажите где его найти, я уже всю админку перерыл....... :mad:

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий