Есть ли cанкции ПС за закрытие ссылок JS

12
O1
На сайте с 19.01.2007
Offline
68
2593

Для правильной с точки зрения вебмастера перелинковки страниц сайта и правильного распределения веса нередко есть необходимость закрыть от ПС некоторые ссылки, а то и целые блоки, например сквозное меню.

Использование noindex и nofollow не решает эту задачу. Использование JS или ajax более эффективно. Перечитал несколько тем на форуме на эту тему, но самая свежая тема годичной давности.

Беспокоит вопрос: Закрытие ссылок при помощи JS или ajax смахивает на клоакинг, за который можно получить бан от ПС. Но даже последнее время уважаемые SEO-специалисты рекомендуют закрывать ссылки таким способом.

Какова вероятность бана? Стоит ли так делать или есть еще более совершенные методы закрытия внутренних ссылок для управлением распределения веса на сайте?

V
На сайте с 25.10.2007
Offline
45
#1

Не будет никаких санкций, это не клоакинг.

T
На сайте с 27.09.2011
Offline
3
#2

Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.

O1
На сайте с 19.01.2007
Offline
68
#3
tilaktil:
Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.

Каким же это образом # усиливает передачу веса? Мне наоборот надо исключить передачу веса некоторыми ссылками. Приведите конкретный пример, что Вы имеете в виду...

M
На сайте с 30.07.2009
Offline
52
#4
Каким же это образом # усиливает передачу веса? Мне наоборот надо исключить передачу веса некоторыми ссылками. Приведите конкретный пример, что Вы имеете в виду...

Если на одной странице есть ссылка на вторую типа < a href = "2.htm">Слоны в Москве< /a>, то можно поставить там же < a href = "2.htm#tag">Синие слоны в Москве< /a> . Тогда ПС зачтёт, это как 2-е ссылки на одну страницу, т.к. решётку и всё ,что за ней он отрезает.

На счёт Яваскрипт - Гугл ссылки типа write('< a href= "2.htm">Слоны </ a> '); прекрасно видит , но учитывает их как с rel='nofollow'.


Для правильной с точки зрения вебмастера перелинковки страниц сайта и правильного распределения веса нередко есть необходимость закрыть от ПС некоторые ссылки, а то и целые блоки, например сквозное меню.

Сейчас спрятать через яваскрипт что то от Гугла становиться всё сложней, так что лучше использовать вариант с решёткой.

Или смирится с тем, что ссылкам с меню , что то передаётся.

Со сквозными меню получается такая вилка - или им отдавать немного веса или терять этот вес в пустоту, т.к. яваскриптовые ссылки он учитывает как нофоллов

S
На сайте с 25.12.2003
Offline
173
#5

За закрытие ссылок в JS ничего не будет, Google даже когда-то рекомендовал это делать для внешних ссылок. Вопрос в другом - простой JS гугл исполняет и понимает как обычный текст.

mirrustam:

На счёт Яваскрипт - Гугл ссылки типа write('< a href= "2.htm">Слоны </ a> '); прекрасно видит , но учитывает их как с rel='nofollow'.

Не совсем так - он по ним ходит точно, а какой вес передает не ясно.

Пока-что у меня работает такой метод скрытия ссылок в JS:

- JS вынести в отдельный файл .js, который потом подключается как script src=...

- все .js файлы надо держать в отдельной папке типа /js/

- .js файл со ссылками закодировать каким-то упаковщиком типа http://dean.edwards.name/packer/

- в robots.txt запретить:

Disallow: /js/

Disallow: /*.js

Красивые сниппеты Google ( https://saney.com/tools/google-snippets-generator.html )
TwistaMen
На сайте с 12.08.2009
Offline
39
#6
tilaktil:
Попробуйте добавлять # к ссылкам. Это позволит передавать вес, большему количеству ссылок на одну страницу.

На счет # подскажите, у меня на главной, каждая звездочка в рейтинге статьи, обновляется страницу таким образом "site.ru/#"

Как это воспринимает ПС?

L
На сайте с 07.04.2011
Offline
4
#7
Пока-что у меня работает такой метод скрытия ссылок в JS:
- JS вынести в отдельный файл .js, который потом подключается как script src=...
- все .js файлы надо держать в отдельной папке типа /js/
- .js файл со ссылками закодировать каким-то упаковщиком типа http://dean.edwards.name/packer/
- в robots.txt запретить:
Disallow: /js/
Disallow: /*.js

Согласен, только паковать не обязательно, потому как на выходе тот же JS получается.

Более хардкорный, параноидальный вариант, работающий на 101%. Ни один поисковик не распознает никогда:

1) Кодируем сам URL-формат, т.е. вместо http://www.site.com/path/page1.html приводим ссылки к виду, например mggb:||www^site^com|path|page1^html

Делается простой подменой символов на раз. Этим закрываем наши ссылки от возможных URL-парсеров на стороне ПС, которые ищут ссылки не только в рамках "правильных" тегов

2) Оформляем ссылки как <span class="paranoid-style-hidden-link" rel="mggb:||www^site^com|path|page1^html">анкор</span>

3) В отдельном JS-файле, пишем декодер линков, преобразующий всю эту муть обратно. Сам файл подключаем через <script src="">

4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.

Путь не из легких, но с автоматом сработает 100%. От специалиста-человека с должным уровнем квалификации не спасет конечно же.

[Удален]
#8
Не будет никаких санкций, это не клоакинг.

Vvova, а может будут таки?

Некоторые страницы Вашего сайта предназначены для перенаправления.......
по этой причине наши поисковые алгоритмы приняли решение

Здесь пример.

Мой сайт тоже пофильтровали (бан) точно с такой же формулировкой Платона - стоял на форуме плаг закрытия внешних ссылок..так шо...

[Удален]
#9
x0x0:
Источник

так дорвеи всегда банили :)

[Удален]
#10

а где там дорвей?)) речь о сдл на который ссылка, там все расписано что да как (сайт не мой). Ну а мой сайт тоже далееееко не дорвей)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий