Mercurialx

Рейтинг
0
Регистрация
31.08.2018
SearchGoogle:
Mercurialx, раньше считал теперь нет, последствия перехода. Смиритесь

Есть какая-нибудь аргументация этому?

lkm:
Возможно, пока робот считает их недостаточно качественными.
Видимо, речь идет о страницах: Пробив по {МВД, ФССП, ФМС...}

Ну раньше то эти страницы были в индексе. Текст на них уникальный. Страницы относительно оптимизированы.

lkm:
Зачем для Яндекса отдельно прописывать роботс, если он на 100% совпадает для всех остальных юзер-агентов? Зачем отдельно прописывать разрешение для sitemap.xml? Он итак разрешен, если не запрещен.
Директива Host - ну понятно, человек живет прошлым.
Disallow на index.php?!?! Это все должно решаться средствами htaccess.

Так и не понятно одно - в Гугл Вебмастер сайт добавлен уже на https? Или вы пытаетесь сайту на http скормить карту сайта? Впрочем, 20 страниц на сайте - никакая карта сайта не нужна, индексируется все за один день, если сайт нормальный.

Сайт shpion.su. Да, в гугл вебмастере сайт добавлен на https уже. Robots дичевый, спорить не буду, но и без роботса на сайте в вебмастере выдает эту же ошибку. А если пробивать доступность страниц, то показывает, что страница разрешена к индексации: http://prntscr.com/kp127t.

Мне очень нужна помощь в решении вопроса с индексом, а не с правильной настройкой роботса. Текущий ничего не блокирует, но страницы все равно в индекс не идут, хотя я каждую забивал в googlebot.

Какими способами тогда еще можно проиндексировать их?