- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Знаю, что скриптами. В принципе, знаю, какими.
Но, слышал, что Гугль развивается и некоторые скрипты уже от него ничего не закрывают.
Если не сложно, подкиньте несколько проверенных вариантов скриптов, которые защитят текстовые ссылки и кнопки от Гугля.
alex_s, например так:
<div onclick="DoRedirect('.com/','anothersite','index.php','?var1=value1&var2=value2')">Hi bots!</div>
функция, выполняющая редирект, для верности можно спрятать в отдельный файл:
<!--
function DoRedirect(area,domain,page,getvars) {
window.location="http://"+domain+area+page+getvars;
}
-->
и т.п. можно еще несколько переменных добавить, местами поменять, преобразовать пару раз туда-обратно :) хотя и по гораздо более простым у меня он еще не ходил.
А просто вот так можно?
<script type="text/javascript">
<!--
window.location = "http://www.сайт.ру"
//-->
</script>
ДЖАЗЗ!, такой как раз и использую для партнерских линков, только в виде функции - удобно, когда редиректные страницы разные. Инфу о кликах сохраняю, в т.ч. User-agent - пока ботов не замечал... если только они под Мозиллой какой-нить не шифруются :)
И еще так для надежности :)
<a href=http rel=nofollow>
вы вопрос топикстартера еще раз прочитайте повнимательнее....
спрятать не от юзера а от гугла...
помоему засунуть ссылки в javascript самый оптимальный вариант.
Так и не понял. Вариант, предложенный уважаемым ДЖАЗЗ!ом, это вопрос или утверждение? :)
Alex_s, это был вопрос.
А вот еще один
я запрятал жабу в html файлики и закрыл в директории (dir) следующим роботсом:
User-Agent: *
Disallow: /dir/
Disallow: /cgi-bin/
Disallow: /images/
А сейчас вижу, что закрытые файлики Гугл выдает в allinurl
Как понимать?
Вобщем он их индексирует. Надо как-то хитрее закрывать.
Может и впрямь nofollow поможет?
Т.е. нет java скрипта, который бы надежно скрывал ссылки от Гугля?
А всякие проги типа HTMLGuard или HTMLProtector не подойдут? Они закодируют ссылки в %-ки..