Как бороться с этой проблемой?

productorg
На сайте с 08.07.2009
Offline
101
510

Вот что говорит гугл

http://prntscr.com/aa17c5

Как решить? Перекраивать формирование файла sitemap с учетом того, что заблокировано в роботсе?

W
На сайте с 13.12.2015
Offline
19
#1
productorg:
Вот что говорит гугл
http://prntscr.com/aa17c5

Как решить? Перекраивать формирование файла sitemap с учетом того, что заблокировано в роботсе?

Ну здесь прямо сказанно, что проблема с Robots.txt

В часте, где

User-agent: *

Смотрите по полю

Disallow:

Уберите то поле, которое перекрывает доступ к файлу.

Легче будет зайти в Вебмастер гугла, там пункт "тестирование файла robots.txt".

Там есть поле ввода для ссылок. Введите ту, которую необходимо открыть и гугл подсветит какая строка кода ее блокирует.

Её и надо будет убрать.

Веду собственный курс по SEO (на украинском) https://seomadeplace.com/uk/kursi-po-marketingu/seo-kurs/
productorg
На сайте с 08.07.2009
Offline
101
#2

Так дело в том, что на сайте куча дублей страниц. Соответственно их и блокировали в роботсе, чтобы они выпадали из индекса

W
На сайте с 13.12.2015
Offline
19
#3
productorg:
Так дело в том, что на сайте куча дублей страниц. Соответственно их и блокировали в роботсе, чтобы они выпадали из индекса

Дубли надо не роботсом закрывать, а кодом 404.

Передавайте хедер на страницы, которые надо удалить.

Во втором случае, зачем беспокоиться, если дубли закрыты, а основное открыто?

orphelin
На сайте с 02.07.2006
Offline
261
#4

productorg, а зачем эти дубли в сайтмап загружать?

productorg
На сайте с 08.07.2009
Offline
101
#5
orphelin:
productorg, а зачем эти дубли в сайтмап загружать?

Да он автоматом формируется

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий