- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, коллеги!
Цель топика: узнать способ скрытия ссылок от роботов ПС. Совсем скрыть.
Порыскал по поиску, все темы 2006-2007 года (общая масса).
Вот старая и общепризнанная "формула":
<script type='text/javascript'>document.write('<a href="http://site_links.ru">')</script>
Анкор спрятанной ссылки
<script type="text/javascript">document.write("</a>")</script>
В тех темах и нашел.
Вопрос такой: за последние 2 года ПС (яндекс в частности) научились ли индексировать (или просто *видеть*) ссылки, выведенные через данный способ?
Почему не подходит nofollow - потому что есть теория, что робот *видит* ссылку, по ней НЕ переходит, НО вес ("стат") уходит все равно.
Просьба дать совет по вышесказанному, или предложить свою рабочую формулу тотал скрытия ссылок.
Спасибо
AJAX вроде пока поисковики не умеют читать. JavaScript по разному работает, почитай эксперимент у деваки.
http://devaka.ru/articles/complex-javascript-for-google
<script type='text/javascript'>document.write('<a href="http://site_links.ru">')</script>
Анкор спрятанной ссылки
<script type="text/javascript">document.write("</a>")</script>
- это не подойдет, потому что урл прописан в скриптах в явном виде, никто не мешает прочитать боту ваш адрес для перехода.
Есть два выхода, связанные с виртуализацией урл, по которому осуществляется переход (это не значит что в будущем боты не смогут исполнять такой Java Script):
<div class="myclass" onclick="my_function4click('aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==')" >Текст</div>
<a href="javascript: link_click('aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==');">Текст</a>
в обоих случаях используется хэш для преобразования урл
Спасибо всем. Но как я проанализировал, самое эффективное это через вызов кода из папки, которая через роботс запрещена (пункт 7 по ссылке на блог деваки)
Использую на своих сайтах такую систему. Делаю хеш url (у меня например так ссылки прячутся /clk/aHR0cDovL3d3dy5zdXBlcm1haWthLnJ1L2luZm8vMjMuaHRtbA==), а затем в robots.txt пишу Disallow: /clk/
как я проанализировал, самое эффективное это через вызов кода из папки, которая через роботс запрещена
Это всё пока... ещё так.
Это всё пока... ещё так.
ну технологии не стоят на месте - и это хорошо )))
технологии не стоят на месте
Стоят пока... и много лет.
Вот пропаганда XSLT пятилетней давности.
Шутка в индексе. Текст страниц не ищется по сайту/папке.
Когда-нибудь ПС столкнутся с перезревшей проблемой: JS/XML искать будет надо... т.е. XSLT и JS придётся выполнять (сейчас им это дорого), а к тому времени... там будет попрятана куча дублей и пр, чему искаться совсем не надо. А это будет первым делом найдено (и выкинуты из индекса страницы, прохилявшие за нечёткие дубли и левые сцылки?)... и ПС придётся сделать вывод: может не надо в это всё соваться?.. или сортировать бы как-то?
Чем позже ПС начнут, тем более странной для них окажется ситуация :)