- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В-общем, на сайтах туча страниц, на каждой странице много ссылок.
Есть один нюанс: все эти ссылки одинаковые, ссылаются на один и тот же домен, на партнёрку, в-общем.
Если посмотреть с точки зрения поисковика, то как то подозрительно смотриться сайт с несколькими тысячами страниц, по паре десятков идентичных линков на каждой.
Можно ли сделать так, чтобы поисковик не видел линк(не переходил по нему) ?
Можно ли с помощью редиректа это сделать ? То есть скроет ли он линк как таковой ? или вобще никак ?
Вот все те редиректы, что можно увидеть на многих сайтах, переходя по какой-нить ссылке на внешний ресурс.., переходит ли поисковик по этой же ссылке ? видит ли он адрес сайта ? -видимо да...
Я так понимаю nofollow, noindex и подобные вряд ли скроют линку от "глаз" поисковика, он скорее всего лишь не придаст им веса просто.
И ещё вариант: может ли прокатить такое, что положить файлик с фактическим скриптом редиректа в какую нить папочку, которую закрыть от индексации в robots.txt.
javascripts тебе в помощь :)
т.е. ссылку лучше разрезать
Интересный вопрос на самом деле, я тоже об этом думаю в последние дни. Без явы хотелось бы.
Была идея делать переадресацию, определяя, с какой страницы пользователь нажал на ссылку, а ссылка бы тогда была всегда одинаковая, например /blabla.php
Но вот вопрос, отдают ли роботы ПС рефереры?
роботы передают $_SERVER['HTTP_REFERER'], так что в принципе возможно сделать и на пхп
mastserg, это плохо, что передают. Значит такое решение уже точно не подходит.
имхо походу ап сегодня,
давай завтра додумаем как сделать ? :D
я разрою старую инфу по работе с биллингами там были интересные моменты.
только напомни завтра :)
mastserg, вопрос в том, может ли поисковик увидеть эту ссылку, перейдёт ли он на сайт, что в линке ?
то есть по этому коду:
<!--
document.write('<a hr'+'ef="www.site.'+'ru">bla bla</a>');
//-->
</script>
он не перейдёт, верно ?
я правильно понял, что по такой он перейдёт
а по такой нет
Интересный вопрос, тоже не прочь узнать )
Во, а если все ссылки делать на одну php-страничку (с которой будет редирект на партнерку), но эту страничку запретить в robots.txt?
Теоретически бот тогда не должен суваться туда вообще. Если он вежливый :)
если распарсить текст страницы то такая ссылка (вернее текст) будет так и выглядеть, гугл переходит(учитывает) по таким ссылкам, на счет яндекса не буду утверждать, однако робот не может суммировать части урла
так, что последний вариант предпочтительнее.
BrokenBrake теоретически да, но кто возьмет на себя ответственность утверждать это в случае яндекса :D
если есть желание, то оформляйте ссылку кнопкой в форме, передавая параметр методом POST
если нужна не кнопка а ссылка, то используйте свойство OnClick -> document.form
Роботы не умеют нажимать на кнопки, и соответственно урл будет скрыт.
[leech=Адрес сайта]Текст[/leech]
В DLE так можно )