Помогите спрятать ссылки от гугля

1 23
_vb_
На сайте с 25.07.2009
Offline
104
#21
ABAHABA:
Он же представляется... Не думаю, что индексировать ссылки будет какой-то секретный бот.

Ну, если Вы так уверены, что гугл - истинный джентльмен, то причем тут .htaccess ? Пропишите ему соответствующее правило в robots.txt да и дело с концом :)

Саратовская фракция серча (). Давайте посчитаемся.
ABAHABA
На сайте с 26.01.2007
Offline
49
#22

А я не знаю, читает ли он файл скрипта, или выполняет, когда читает страницу. Если читает на странице, закрытие скрипта в robots.txt не поможет. Идея с .htaccess - чтобы он не смог загрузить скрипт, когда читает страницу. И прочитать сам файл скрипта, конечно, не сможет.

Я есть Я, и только Я абсолютна! :)
_vb_
На сайте с 25.07.2009
Offline
104
#23
ABAHABA:

Если читает на странице, закрытие скрипта в robots.txt не поможет.

Эээ... Вот этот тезис подробнее развернуть можно?

R
На сайте с 16.10.2009
Offline
14
#24
sam bot:
Вряд ли Гугл (и не только Гугл) будет тратить ОЧЕНЬ большое бабло, чтобы устанавливать суперкомпьютеры и разбирать джаваскрипты на сайтах. И выдачу аджакса скачивать и анализировать. Думаю, что в ближайшие пиццот лет этого не будет. Ну не пиццот, так лет тридцать - точно. :)

Ожидать следует, думаю, другого: Гугл будет грубо анализировать яваскрипт на предмет каких-то типичных паттернов, а уже при наличии подозрений - насылать тяжелую артиллерию в виде бота, реально выполняющего яваскрипт. И, возможно, ожидать этого следует быстрее, чем через 30 лет.

ABAHABA
На сайте с 26.01.2007
Offline
49
#25
_vb_:
Эээ... Вот этот тезис подробнее развернуть можно?

Если он выполняет скрипт, и видит страницу, как браузер, то ссылка будет проиндексирована как часть самой страницы. Страница же не запрещена для индексирования!

Самое интересное: если бы это было не так, было бы достаточно закрыть скрипт в robots.txt - Гугл бы скрипт не загрузил, и не увидел бы, что там вообще есть ссылка.

_vb_
На сайте с 25.07.2009
Offline
104
#26
ABAHABA:

было бы достаточно закрыть скрипт в robots.txt - Гугл бы скрипт не загрузил, и не увидел бы, что там вообще есть ссылка.

Я Вам об этом и говорю - если закрыть скрипт в в robots.txt, то честный гугл не должен его читать. Соответственно, он не может его выполнить. А если он его все таки выполняет (предварительно прочитав, несмотря на запрет в robots.txt), то значит он все таки поступает не совсем по джельтнменски :)

Тогда почему Вы думаете, что он будет поступать по джельтменски в плане представления своего бота в сценарии с .htaccess?

"Тут помню, тут не помню..." (C) Джельтнмены удачи.

ABAHABA
На сайте с 26.01.2007
Offline
49
#27

Потому, что есть ещё вариант: он индексирует страницу в том виде, в котором её видит пользователь. То, что файл со скриптом закрыт - отдельная тема: сам файл .JS он не будет индексировать. Всё будет соблюдено!

Пыталась найти текст, который выводится JS - не находит. Читает ли закрытый в robots.txt файл скрипта - не знаю.

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий