Гугл об индексации сайта

A
На сайте с 21.04.2011
Offline
35
693

Доброго времени суток. Был бы благодарен за мнения по ситуации.

Сайт на Вордпресс, до 5 мая 2015 в файле robots.txt , были запрещены для индексации почти все его служебные разделы и почти все фотографии. Гугл в вэбмастере рекомендовал открыть нужные разделы и файлы для правильной индексации сайта и указывал, какие именно. 5 мая я открыл всё, что он просил, и послал ему обновленный robots.txt. Потом проверил сервисом «Посмотреть как Googlebot». Действительно, теперь вместо одних голых текстов на страницах отображалась графика, элементы оформления, фото, то всё нормально. Но при повторной проверке через несколько минут, час или позже эти же страницы отображались с парой изъянов или больше, и Гугл указывал ресурсы, к которым нет доступа и помечал их «Временно недоступен».

Прошёл уже месяц, но в вэбмастере Гугл по-прежнему пишет, что заблокировано такое-то количество ресурсов сайта. Например, на 6 июня и до сегодня их 19. Повторяю, что в robots.txt всё нужное для индексации открыто. В Интернете все страницы сайта открываются отлично.

Кажется, описал «симптомы» точно. Меня беспокоит то, что Гугл может видеть сайт ущербным, что наверное отразиться на ранжировании. Ведь он же рекомендует улучшить индексацию. К сожалению, в вебмастере Яндекса перепроверить невозможно. Что это – глюки вебмастера Гугла или проблема с доступом на хостинге? Хостинг платный, цены несколько выше средних на рынке (хотя хостинг небольшой), выбрал тариф по цене второй сверху, выделенный IP. Что посоветуете?

A
На сайте с 21.04.2011
Offline
35
#1

Господа!

Да неужели такой сложный вопрос для спецов?

[Удален]
#2

Все нормально. Гуглбот в ВМ всегда отражает сайт как-то криво. Это вовсе не значит, что именно так он его и индексирует. Бот читает код, а не смотрит.

A
На сайте с 21.04.2011
Offline
35
#3

Спасибо за ответ JerichoGB.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий