Закрыть iframe от индексации

12
U
На сайте с 11.10.2010
Offline
65
6007

Подскажите как закрыть данные, погружаемые в iframe c другого сайта, от индексации в гугле? Как я понимаю, при таком варианте не получится напрямую закрыть данные в своем robots просто прописав в dissalow чужой домен? Верно?

Ну ладно, если нельзя, тогда следующий вариант: создать страничку на сайте, на которую запихать редирект на сторонний сайт, данную страницу запретить к индексации в роботс, и её же запихать в iframe. Верно мыслю?

siv1987
На сайте с 02.04.2009
Offline
427
#1

Установить фрейм через js.

U
На сайте с 11.10.2010
Offline
65
#2

Хрен редьки не слаще...как я понимаю все равно придется создавать внешний js и закрывать его от индексации в robots, иначе гугл все проиндексирует

siv1987
На сайте с 02.04.2009
Offline
427
#3
U
На сайте с 11.10.2010
Offline
65
#4
gormarket
На сайте с 29.12.2010
Offline
47
#5
Unrivalled:
и закрывать его от индексации в robots

А вот это самое неэффективное для гугла,

он по собственному утверждению (посмотрите хелпы гугла по поводу robots), в некоторых случаях, игнорирует robots (например если ссылка найдена на стороннем ресурсе).

Можно конечно для этого внешнего js проверять HTTP_USER_AGENT (чтоб не отдать это js гуглу), но никто не запрещает представиться ему "Вася Пупкин" и получить содержимое Вашего js.

Товары и цены в магазинах Вашего города: Городской рынок (http://gormarket.ru/)
siv1987
На сайте с 02.04.2009
Offline
427
#6
U
На сайте с 11.10.2010
Offline
65
#7

В примере, в приведенной теме, JS аналогично зарывают от индексации в роботсе

DiAksID
На сайте с 02.08.2008
Offline
218
#8
gormarket:
А вот это самое неэффективное для гугла,
он по собственному утверждению (посмотрите хелпы гугла по поводу robots), в некоторых случаях, игнорирует robots (например если ссылка найдена на стороннем ресурсе)...

ссылку в студию, где прямо говориться, что закрытый в роботсе файл может попасть в индекс гугла. не просто проанализирован, а именно помещён в основной индекс несмотря на запрет в роботс. то что, для проверки трастовости любой поисковик жрёт всё доступное не взирая на любые запреты - ежу понятно, но это совершенно другое дело...

show must go on !!!...
gormarket
На сайте с 29.12.2010
Offline
47
#9
DiAksID:
ссылку в студию, где прямо говориться, что закрытый в роботсе файл может попасть в индекс гугла. не просто проанализирован, а именно помещён в основной индекс несмотря на запрет в роботс.

Пожалуйста:

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс.

DiAksID
На сайте с 02.08.2008
Offline
218
#10

и что здесь написано? с русского на русский перевести надо? пожалуйста :

Гугл не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt т. е. страницы не участвуют в распределении веса, не влияют на ранжирование, не включаются в собственный индекс сайта.

и только урлы закрытых страницы могут оказаться в выдаче гугула если будут найдены ссылки на них (с нужным анкором) со сторонних ресурсов. но это есть результат индексирования этого самых "сторонних ресурсов", а не закрытых страниц вашего сайта.

вы чего хотели? что бы ваш роботс влиял на индексирование чужих сайтов?

так что не вводите людей в заблуждение...

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий