Проиндексировано, несмотря на блокировку в файле robots.txt

123
S0
На сайте с 09.09.2013
Offline
123
#11
Оптимизайка:
Закрыли, как гугл рекомендует?

Отличненько, сканирует PDF, и как их тогда закрывать, если они на хостинг, а не HTML страница?

(аналогичная ситуация, что и у ТС)

Pavel Medvedev
На сайте с 27.01.2006
Offline
166
#12

Помоему у большинства тут проблемы с понимаем назначения файла robots.txt.

Кто нибудь читал справки поисковиков или хотя бы по robots.txt?

🤣

Robots не имеет никакого отношения к управлению индексацией сайта.

И поисковики сами пишут что если хотите запретить индексацию страниц - то не запрещайте их в роботс, наоборот, нужно открыть их сканирование в robots.txt чтобы поисковик смог их просканировать и понять что они запрещены к индексации.

*рукалицо

Если страница уже в индексе, вы запретите ее посещать роботу - то по логике она должна навсегда остаться в нем в последней просканированной версии. И даже если добавить запрет на индексацию meta noindex - робот не сможет о нем узнать, потому что ему запрещено сканировать страницу.

Консультирую по SEO. Опыт c 2005: окна топ1,Ашан,Фишки,Спортс и др. Пишите в FB.
Станислав Романенко
На сайте с 05.09.2007
Offline
325
#13
SE-0:
Отличненько, сканирует PDF, и как их тогда закрывать, если они на хостинг, а не HTML страница?
(аналогичная ситуация, что и у ТС)

Ну там же написано:

Вместо метатега можно возвращать заголовок X-Robots-Tag. В ответе должно быть указано значение noindex или none. Пример HTTP-ответа, где X-Robots-Tag запрещает роботам индексировать страницу:

HTTP/1.1 200 OK
(…)
X-Robots-Tag: noindex
(…)
Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
Skom
На сайте с 02.12.2006
Offline
166
#14

У меня ситуация ещё забавнее.

В роботсе всё разрешено, но в консоли написано, что пару десятков страниц проиндексированы, не смотря на запрет в роботсе :)

Cras amet qui numquam amavit quique amavit cras amet
Pavel Medvedev
На сайте с 27.01.2006
Offline
166
#15
Skom:
У меня ситуация ещё забавнее.
В роботсе всё разрешено, но в консоли написано, что пару десятков страниц проиндексированы, не смотря на запрет в роботсе :)

В новой консоли часто сообщения запутанные. Похоже трудности перевода. Сообщения противоречат друг другу

jpg 41991881_1981104815244429_3287575458228469760_o.jpg
Станислав Романенко
На сайте с 05.09.2007
Offline
325
#16

sni, возможно, речь об этом - /ru/news/2011639

S0
На сайте с 09.09.2013
Offline
123
#17
Ingref:
Ну там же написано:

смотрел:

https://support.google.com/webmasters/answer/93710

у меня PDF-документы, куда я его влеплю? если это независимый файл, а не страница.

Если уберу с роботса запрет, то часть трафа может пойти на документы. Такой трафик для многих бесполезный, и для меня также ...

Про рекомендательный характер давно в курсе. У него свои тараканы, если в на информационных сайтах временами не правильно определяет релевантность ...

А выбирает другую страницу, просто потому что на ее есть внешняя ссылка (без прямого анкора), а на релевантную - нет.

Станислав Романенко
На сайте с 05.09.2007
Offline
325
#18
SE-0:
у меня PDF-документы, куда я его влеплю? если это независимый файл, а не страница.

В .htaccess:


<FilesMatch "\.pdf$">
Header set X-Robots-Tag "noindex,nofollow"
</FilesMatch>
Alex Agent
На сайте с 07.04.2011
Offline
304
#19

Выше уже успели отписать, поэтому немного повторюсь:

а) robots.txt - лишь рекомендация для Google.

б) Полностью запретить индексацию можно с помощью тега meta robots noindex. Однако это неприменимо в случае PDF, RSS-лент, картинок, XML и JSON. В теории для них может помочь заголовок X-Robots-Tag: noindex, nofollow.

в) Google считает, что он вправе залезть на сайте в каждую дырку, поэтому блокировать ресурсы от индексации он не рекомендует (за исключением закрытых страниц типа админки).

Всему свое время. Все сами принесут и все сделают. Быстрый и выгодный перевод денег Россия ↔ Украина онлайн (http://smartwm.ru/referral/cea1f09842be).
D
На сайте с 04.03.2019
Offline
2
#20

У меня 140 страниц вида /magazin/cart/add?category_id=29&product_id=1317 и /magazin/product/ajax_attrib_select_and_price/1578?ajax=1 залетели в индекс, тоже проиндексировано, несмотря на блокировку в файле robots.txt. Спрашивается какого? Отправил на перепроверку, жду результатов.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий