Как происходит закрывание комментариев в robots.txt от поисковых систем?

12
богоносец
На сайте с 30.01.2007
Offline
773
#11
burunduk:
можно после загрузки по движению мыши/скролу, т.е. только после действия посетителя

А по onLoad ...подлый гугл уже выполняет?

---------- Добавлено 09.11.2019 в 18:06 ----------

Dmitriy_2014:
...через robots.txt, ну понятно там прописывается что-то вроде - Disallow: /comment
...
если бы это были бы разные документы с разными адресами тогда понятно, как они их разделяют?

Не Disallow: /comment

а Disallow: /[путь-к-вашему-JS,рисовавшему-контент-комента]

РазделяЛОся — то, что бот еЛ / чего не выполняЛ... в одном документе.

[Удален]
#12
богоносец:
А по onLoad ...подлый гугл уже выполняет?
богоносец:
А по onLoad ...подлый гугл уже выполняет?

если скрипт не закрыт в роботсе, то в принципе может и выполнить, а если закрыт, то в вебмастере будут предупреждения и придётся объяснять ещё и про это :D

а так вряд ли даже будет пытаться что-то выполнять/анализировать, тем более там нет url для загрузки

Z0
На сайте с 03.09.2009
Offline
824
#13
burunduk:
необязательно, можно после загрузки по движению мыши/скролу, т.е. только после действия посетителя

Хорошая идея, кстати... Может так же сделать, а не по клику "смотреть всё"... :)

[Удален]
#14

ziliboba0213, вопрос в целях, если идёт подгрузка контента с другого url, то такое всё равно спалиться, немного другой службой (проверка на вирусы), будут ли переданы эти данные в службу поиска, по мне так вряд ли

но что точно если js не закрыт в роботсе, то контент по любому url, который в нём указан будет точно проанализирован

Z0
На сайте с 03.09.2009
Offline
824
#15
burunduk:
ziliboba0213, вопрос в целях, если идёт подгрузка контента с другого url, то такое всё равно спалиться, немного другой службой (проверка на вирусы), будут ли переданы эти данные в службу поиска, по мне так вряд ли
но что точно если js не закрыт в роботсе, то контент по любому url, который в нём указан будет точно проанализирован

Не, мне просто идея понравилась :) У меня по 10 выводится последних, а потом по кнопке ajax-ом :)

[Удален]
#16
ziliboba0213:
а потом по кнопке ajax-ом

тогда особого смысла нет

Z0
На сайте с 03.09.2009
Offline
824
#17
burunduk:
тогда особого смысла нет

Не, просто чтобы листали комменты, так красивше просто :p

Dmitriy_2014
На сайте с 01.07.2014
Offline
344
#18
ivan-lev:
<noindex></noindex>
вывод javascrip-ом..

Не, не Disallow: /comment из robots.txt вполне работает, хотя таких отельных страниц нету, но я так понял он блокирует их исходя из так называемых якорных ссылок сайт/пост/#comment-525233 – по которым можно быстро перейти к комментарию, хотя все равно странно открыв прямую ссылку поста и посмотрев исходный код в этом документе присутствуют комментарии. Наверное, я этого никогда не пойму :-)

---------- Добавлено 09.11.2019 в 23:29 ----------

miketomlin, LEOnidUKG,

Комментарии мягко говоря не очень, хотя встречаются и полезные как даже я бы сказал дополнение к статье, но их очень мало, в основном – спасибо/что за … ты написал :) коротенькие. Антиспам, постмодерация присутствует без этого ваще жесть там происходит.

---------- Добавлено 09.11.2019 в 23:29 ----------

Интересно топовые сайты запрещают индексацию комментариев типа youtube и.т.п. (Вроде никогда не попадал из поисковика на youtube комментарий, но это не точно.)

Ещё интересно где комментарии сделаны хорошо, вот мне нравится, как у pikabu сделаны, не знаю почему, интересно они их закрывают, там бреда и откровенной фигни мега горы.

богоносец
На сайте с 30.01.2007
Offline
773
#19

Скорее всего вы не понимаете, чего вам тут наобъясняли.

Может про robots.txt почитаете

Dmitriy_2014:
, но я так понял он блокирует их исходя из так называемых якорных ссылок сайт/пост/#comment-525233 – по которым можно быстро перейти к комментарию

Индексируются документы,

а якоря типа #comment-525233 по HTTP не передаются ... и такие ссылки не индексируются, т.е. запрещать их нет смысла, да и не получилось бы в robots.txt

хотя JS их разбирать может.

M
На сайте с 04.12.2013
Offline
223
#20
Dmitriy_2014:
Не, не Disallow: /comment из robots.txt вполне работает, хотя таких отельных страниц нету, но я так понял он блокирует их исходя из так называемых якорных ссылок сайт/пост/#comment-525233 – по которым можно быстро перейти к комментарию, хотя все равно странно открыв прямую ссылку поста и посмотрев исходный код в этом документе присутствуют комментарии. Наверное, я этого никогда не пойму :-)

Как выше написали, к содержимому комментов это не относится (конечно, при условии, что у вас комменты не располагаются отдельно в ветке /comment). Это делается, чтобы ПС «поменьше обращали внимание» на эту ветку (вдруг у вас там когда-нибудь появятся страницы-прокладки, отдельные комменты, полный список комментов и т.п.).

Комментарии мягко говоря не очень, хотя встречаются и полезные как даже я бы сказал дополнение к статье, но их очень мало, в основном – спасибо/что за … ты написал :) коротенькие. Антиспам, постмодерация присутствует без этого ваще жесть там происходит.

Я про премодерацию писал и «шашкомахание» (удаление всякой лабуды без зазрения совести еще до отображения). Модерирую/редактирую пользовательский контент таким образом на неск. сайтах. Если контент малополезный, подумайте о его отделении (так проще закрыть от поисковиков, но и пользователям тоже будет сложнее до него добраться при просмотре материалов) или даже полном удалении/отключении комментирования. Спасибки – это в общем хорошо, если в комментах не только они. Более-менее вменяемая критика тоже, есть у вас есть возможность на нее реагировать в тех же комментах. Я, например, иногда даже материалы правлю, когда мне как их автору приходят норм. критические комменты, ЛС и т.п.

Интересно топовые сайты запрещают индексацию комментариев типа youtube и.т.п. (Вроде никогда не попадал из поисковика на youtube комментарий, но это не точно.)

Поменьше обращайте внимание на таких монстров, как ютьюб.

Домены и скрипт для коротких ссылок: https://u75.ru/domains-for-shortcuts
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий