- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Метт катс накажет вас епрст.
Предложите ваш метод хайда технических и повторяющихся ссылок от ненужной индексации.
TF-Studio, интересно. Получается, как и в случае с примером богоносца, ссылка формируется "на лету". Как давно вы используете данный метод? Были ли проблемы?
---------- Добавлено 09.04.2013 в 00:04 ----------
А есть вообще на счет скрытия ссылок в js официальное мнение поисковых систем? Какие-то рекомендации на этот счет?
---------- Добавлено 09.04.2013 в 00:59 ----------
Вот нашел мнение: http://sosnovskij.ru/mozhno-li-ajax-schitat-kloakingom/
Ответ на этот вопрос является немного философским ;-). Что является клоакингом? Это когда мы пользователю и поисковой системе отдаем разный контент. Вычисление поисковых систем может быть по ip или по user agent. То есть какой-то скрипт или еще что-то из общего числа посетителей выбирает поисковых роботов и пауков, выдавая им “выгодный код (контент)”.
В случае с аяксом или сложными javascript дело обстоит совершенно по-другому. И пользователю, и поисковой системе выдается один и тот же контент и код. Другой момент, что аякс поисковые системы проиндексировать не могут. Видна разница? В одном случае мы специально выискиваем и подсовываем, в другом – выводим одно и то же для всех без исключения.
Помимо этого автор задал вопрос Платону, на который получил (вот это поворот!!!) ответ:
Однако, простой JS поисковики действительно распознают. Есть ли более сложный пример? Или то, что привел TF-Studio будет достаточно?
богоносец, мне js как-то роднее, хоть и знаю его плохо, но по сути методы одинаковые.
Я это использовал - когда просили.
Сам я - не закрываю ссылки, ибо не страдаю паранойей по этому поводу.
Наличие внешних ссылок на сайте = есть нормально.
для понимания, тот же сайт
1 карта ссылок
2 карта кликов
3 карта кликов с отключенными кликами по тегу <a>
:)
Я это использовал - когда просили.
Сам я - не закрываю ссылки, ибо не страдаю паранойей по этому поводу.
Наличие внешних ссылок на сайте = есть нормально.
Я паранойей тоже не страдаю и к внешним ссылкам так же, как и вы хорошо отношусь. Закрываю таким образом лишь внутренние ссылки. Я уже писал об этом.
Зачем, к примеру, отдавать вес странице с формой обратной связи? Если с nofollow все равно он утекает.
хотя на www.unmedia.ru есть более красивые решения :)
А вот на счет индексации таких ссылок
А как проверять? Анкор ссылки или текст, рисуемый скриптом, находящимся в том же файле... найти можно было, т.е. можно предположить, что и адрес ссылки индексируется (но это и так возможно при достаточно большой доле браузеров от ПС).
Выносите скрипт в отдельный файл и прикрывайте его в robots.txt
Тут вот Аяврик затеял проверку индексации ajax
http://ga.x9.ru/
http://ga.x9.ru/1.htm
http://ga.x9.ru/2.htm
Не задавайте вопросов платонам, они не имеют возможности на них отвечать. Или очень редко /ru/forum/215449
Топикстартеру
Чисто для юзабельности - делайте ссылки ссылками. Или преобразуйте span в ccылку по mouseover. Так чтобы юзер видел что это ссылка, и ведет себя как нормальная ссылка.
Там вам вариантов много накидали.
Google такие ссылки индексирует с 2004-2005 года. Информации в гугле за это время накопилось много.
Яндекс пока вроде еще не научился.
Выносите скрипт в отдельный файл и прикрывайте его в robots.txt
То что Google не выдает закрытый через robots.txt контент, не означает что он не делает какие-то выводы, или не сделает в будущем, если получит распространение. Какие выводы? А никто не знает.
Со страницами на которых есть ссылки rel=nofollow Google одно время тоже как-то химичил.
Тут вот Аяврик затеял проверку индексации ajax
Там не столько Ajax, сколько CSS - считывание данных из *.css и игры с Media Queries. Хотя все это больше похоже на гадания по кофейной гуще, потому что совершенно непонятно как именно Google исполняет JS. Если у себя- это одно, до CSS он еще не скоро доберется. Но если использует броузеры юзеров - это несколько другое, но это имхо паранойей.
Или преобразуйте span в ccылку по mouseover. Так чтобы юзер видел что это ссылка, и ведет себя как нормальная ссылка.
Тогда есть предложение допилить вариант, выложенный TF-Studio несколько постов назад, чтобы ссылка обрабатывалась при mouseover. В теории все понятно, а как на практике сие осуществить?
Тогда есть предложение допилить вариант, выложенный TF-Studio несколько постов назад, чтобы ссылка обрабатывалась при mouseover. В теории все понятно, а как на практике сие осуществить?
<span class="external" data-url="ссылка">текст</span>
Что-нибудь типа:
$('body').delegate('span.external','mouseover',function(){
$(this).html('<a href="$(this).data('url')">'.$(this).html().'</a>');
});
Или
<a class="external" href="#" data-url="ссылка">текст</a>
$('body').delegate('span.external','mouseover',function(){
$(this).attr('url', $(this).data('url'));
});
В отличие от кода TF-Studio, такой вариант меньше ест ресурсы, но Google все равно индексирует это непонятным мне образом.
Кстати, про доказательства.
Matt Cutts: “I could imagine down the road if iFrames or weird JavaScript got to be so pervasive that it would affect the search quality experience, we might make changes on how PageRank would flow through those types of links... For a while, we were scanning within JavaScript, and we were looking for links. Google has gotten smarter about JavaScript and can execute some JavaScript. I wouldn’t say that we execute all JavaScript, so there are some conditions in which we don’t execute JavaScript. ” 2010 год здесь
Ayavryk, не работает ваш пример.