Гугл игнорирует запрет в robots.txt

fingeniy
На сайте с 11.01.2014
Offline
85
3292

Здравствуйте,

У меня такой вопрос.. Есть файл robots.txt, в котором содержатся условия:

User-agent: *

Disallow: /*page*/

Disallow: /*comment*/

Ранее Гугл эти страницы не индексировал, но с недавнего времени начал, что создает ошибки в разделе Вебмастера "Оптимизация html" - повторяющееся метаописание и повторяющиеся заголовки.

Я уже даже специально добавил более точные команды с точным указанием страниц, которые не надо индексировать:

Disallow: /comment-page-1/

Disallow: /comment-page-2/

Disallow: /comment-page-3/

Но он все равно продолжает это делать.

Возможно, проблема появилась после того, как добавил в файл вот такое условие:

User-agent: Googlebot

Allow: /*.js

Allow: /*.css

Allow: /css/

Allow: /js/

А добавил я его, когда пришло письмо:

Мы обнаружили на Вашем сайте проблему, которая может помешать его сканированию. Робот Googlebot не может обработать код JavaScript и/или файлы CSS из-за ограничений в файле robots.txt. Эти данные нужны, чтобы оценить работу сайта. Поэтому если доступ к ресурсам будет заблокирован, то это может ухудшить позиции Вашего сайта в Поиске.

Подскажите, как решить данную проблему? Запретить индексацию страниц с комментариями, дублирующих заголовки?

[Удален]
#1

проверь страницы через

Инструмент проверки файла robots.txt

в консоли

fingeniy:
Возможно, проблема появилась после того, как добавил в файл вот такое условие:

User-agent: Googlebot
Allow: /*.js
Allow: /*.css
Allow: /css/
Allow: /js/

это зачем? Кто вам такое насоветовал?

worldfoto
На сайте с 20.04.2012
Offline
213
#2

Как последнее время замечаю, гугл сейчас все индексирует.

⭐ ->Лучший VPN https://u.to/i1L5IA | ⭐ - > Лучшая партнерка только с ней и зарабатываю! https://is.gd/OrRjrw
fingeniy
На сайте с 11.01.2014
Offline
85
#3
web2033:
проверь страницы через
Инструмент проверки файла robots.txt
в консоли

Ошибок при проверке нет, все хорошо.

web2033:

это зачем? Кто вам такое насоветовал?

Этот вариант нашел на каком-то сайте. С ним, если посмотреть сайт как гуглбот, получается практически так, как и должно выглядеть. Без этого - получается простой текст, не особо смотрибельный.

Sky-fi
На сайте с 02.08.2013
Offline
53
#4
web2033:
это зачем? Кто вам такое насоветовал?

https://support.google.com/webmasters/answer/35769?hl=ru#technical_guidelines

fingeniy, вам необходимо при помощи мета-тегов запрещать индексацию. Роботс действительно не всегда гарантирует решение проблемы, особенно, если дубли проиндексированы.

https://support.google.com/webmasters/answer/93710?hl=ru

Частный SEO оптимизатор (https://sky-fi.info/)
M1
На сайте с 19.09.2015
Offline
0
#5

Всем привет. Подскажите такой вопрос. я далек от создания сайтов(только учусь) вот такой robot.txt

User-agent: Mediapartners-Google

Disallow:

User-agent: *

Disallow: /wp-includes

Disallow: /wp-feed

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Host: www.мой сайт

Sitemap: http://мой сайт/sitemap.xml

User-agent: Googlebot-Image

Allow: /wp-content/uploads/

User-agent: YandexImages

Allow: /wp-content/uploads/

делал его по урокам найденым на просторах интернета

K5
На сайте с 13.07.2014
Offline
49
#6
Malibu1313:
Всем привет. Подскажите такой вопрос. я далек от создания сайтов(только учусь) вот такой robot.txt

User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /wp-includes
Disallow: /wp-feed
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Host: www.мой сайт
Sitemap: http://мой сайт/sitemap.xml

User-agent: Googlebot-Image
Allow: /wp-content/uploads/

User-agent: YandexImages
Allow: /wp-content/uploads/

делал его по урокам найденым на просторах интернета

В чём заключается вопрос?

M1
На сайте с 19.09.2015
Offline
0
#7
karpo518:
В чём заключается вопрос?

Два раза писал вопрос почему то не появлялся( вопрос такой: данный robots.txt нормальный для обычного блога?

trahtor
На сайте с 06.12.2005
Offline
426
#8

Роботс - это только рекомендации для бота.

CD
На сайте с 20.09.2015
Offline
4
#9
trahtor:
Роботс - это только рекомендации для бота.

Полностью согласен.

ПС не обязаны следовать инструкциям robots.txt, т.к. последние носят чисто рекомендательный характер.

Тем не менее, robots.txt можно составить двумя способами:

  • разрешить индексировать все, а запретить - только то, что нужно;
  • запретить индексировать все, а разрешить - только то, что нужно.

По первому случаю функционирует, например, Серч. А по второму - Рутрекер.

Если что пишите - помогу ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий