Nofollow, Java, роботы ПС

Drazah
На сайте с 24.10.2005
Offline
133
1405

Добрый день, коллеги!

Цель топика: узнать способ скрытия ссылок от роботов ПС. Совсем скрыть.

Порыскал по поиску, все темы 2006-2007 года (общая масса).

Вот старая и общепризнанная "формула":

<script type='text/javascript'>document.write('<a href="http://site_links.ru">')</script>

Анкор спрятанной ссылки

<script type="text/javascript">document.write("</a>")</script>

В тех темах и нашел.

Вопрос такой: за последние 2 года ПС (яндекс в частности) научились ли индексировать (или просто *видеть*) ссылки, выведенные через данный способ?

Почему не подходит nofollow - потому что есть теория, что робот *видит* ссылку, по ней НЕ переходит, НО вес ("стат") уходит все равно.

Просьба дать совет по вышесказанному, или предложить свою рабочую формулу тотал скрытия ссылок.

Спасибо

<===...(-_(-_(-_-)_-)_-)...===>
Slavonic
На сайте с 08.05.2010
Offline
77
#1

AJAX вроде пока поисковики не умеют читать. JavaScript по разному работает, почитай эксперимент у деваки.

smiler
На сайте с 22.09.2006
Offline
116
#2
Evgeny Smirnoff
На сайте с 12.01.2006
Offline
153
#3

<script type='text/javascript'>document.write('<a href="http://site_links.ru">')</script>

Анкор спрятанной ссылки

<script type="text/javascript">document.write("</a>")</script>

- это не подойдет, потому что урл прописан в скриптах в явном виде, никто не мешает прочитать боту ваш адрес для перехода.

Есть два выхода, связанные с виртуализацией урл, по которому осуществляется переход (это не значит что в будущем боты не смогут исполнять такой Java Script):

<div class="myclass" onclick="my_function4click('aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==')" >Текст</div>

<a href="javascript: link_click('aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==');">Текст</a>

в обоих случаях используется хэш для преобразования урл

Drazah
На сайте с 24.10.2005
Offline
133
#4

Спасибо всем. Но как я проанализировал, самое эффективное это через вызов кода из папки, которая через роботс запрещена (пункт 7 по ссылке на блог деваки)

novitskii
На сайте с 11.06.2006
Offline
69
#5

Использую на своих сайтах такую систему. Делаю хеш url (у меня например так ссылки прячутся /clk/aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==), а затем в robots.txt пишу Disallow: /clk/

Продаю очень крутой движок для музыкальных сайтов. По вопросам в icq.
богоносец
На сайте с 30.01.2007
Offline
769
#6
Drazah:
как я проанализировал, самое эффективное это через вызов кода из папки, которая через роботс запрещена

Это всё пока... ещё так.

Drazah
На сайте с 24.10.2005
Offline
133
#7
богоносец:
Это всё пока... ещё так.

ну технологии не стоят на месте - и это хорошо )))

богоносец
На сайте с 30.01.2007
Offline
769
#8
Drazah:
технологии не стоят на месте

Стоят пока... и много лет.

Вот пропаганда XSLT пятилетней давности.

Шутка в индексе. Текст страниц не ищется по сайту/папке.

Когда-нибудь ПС столкнутся с перезревшей проблемой: JS/XML искать будет надо... т.е. XSLT и JS придётся выполнять (сейчас им это дорого), а к тому времени... там будет попрятана куча дублей и пр, чему искаться совсем не надо. А это будет первым делом найдено (и выкинуты из индекса страницы, прохилявшие за нечёткие дубли и левые сцылки?)... и ПС придётся сделать вывод: может не надо в это всё соваться?.. или сортировать бы как-то?

Чем позже ПС начнут, тем более странной для них окажется ситуация :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий