По непонятным причинам все само собой пришло в норму. Походу все таки проблемы были у гугла.
Всем спасибо за участие.
Попробовал...Правда не знаю, как его убрать, т.к. если его нет - WP генерирует свой. Кинул туда пустой. Пытаюсь скормить сайтмэп - тоже самое:
При попытке доступа к вашему файлу Sitemap произошла ошибка. Убедитесь, что этот файл Sitemap соответствует нашим правилам и находится в указанном местоположении, а затем отправьте его повторно.
URL, запрещенный файлом robots.txt
Вообще видит. Если искать в гугле по шаблону site:адресс - он находит главную и пишет:
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
ДНС прописаны вчера.
Было сделано перед тем, как отправлять гугле sitemap.
Никаких идей? Теперь индексация не проходит....В гугле начал искать свой сайт и вот:
Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...
Может у меня robots.txt не правильный?
Я в отчаянье.... Поставил robots
User-agent: *Allow: /
И все равно sitemap добавить не могу...:(
Поменял на:
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Те же яйца...Sitemap и смотреть как googlebot не могу :(
Даже с пустым robots тоже самое. Может это просто глюк гугла?