Есть ли cанкции ПС за закрытие ссылок JS

12
[Удален]
#11
x0x0:
а где там дорвей?)) речь о сдл на который ссылка, там все расписано что да как (сайт не мой)

в ответе платона (кстати он стандартный) явно указано за что - пере направление пользователей, а каким способом это делается абсолютно не важно :)

[Удален]
#12

а может перенаправление робота?)

Смысл в том что стоял плагин преобразрования исхдящих ссылок во внутренние (в первом и втором случае), за что и фильтранули. Юзеры не перенаправлялись, в отличии от роботов.

Тоесть по сути вид клоакинга -

информация, выдаваемая пользователю и поисковым роботам на одной и той же странице, различается
[Удален]
#13
x0x0:
Юзеры не перенаправлялись, в отличии от роботов

клоакинг чистой воды - бан гарантирован :)

[Удален]
#14

так какая тогда разница между вопросом ТС про закрытие ссылок скриптом от роботов и приведенными примерами где происходит тоже самое? И тут и там клоакинг

[Удален]
#15
x0x0:
И тут и там клоакинг

нет, и пользователям и роботам отдаётся один и тот же контент и при одинаковых действиях происходит одно и тоже :)

[Удален]
#16

Это какаято "юридическая заморочка". Получается что один скрипт вне закона а второй "законен" при том что эффект от них один и тотже (робот не видит исходящей ссылки, потому что не может прочитать скрипт)..

В таком случае модер при ручной проверке может зафильтровать

при одинаковых действиях происходит одно и тоже

как это одно и тоже? если робот не видит исходящей ссылки значит он по ней не переходит, ну а юзер переходит

[Удален]
#17
x0x0:
как это одно и тоже?

если посетитель заходит с отключённым js (как робот) он тоже ни куда не перейдёт

если робот заходит из под браузера, при клике на элементе - он перейдёт.

x0x0:
при том что эффект от них один и тотже

в том-то и дело что разный :)

K
На сайте с 07.03.2005
Offline
99
#18

За кодированные JS-ссылки ко мне пришла панда (ну или ещё какая-то жесткая животина от Гугла), причем пришла сразу, как только я такие ссылки внедрил.

После того как убрал - фильтр отменили.

Vergiliy
На сайте с 30.05.2006
Offline
204
#19

О том как правильно закрывать ссылки через JS и какой из способов работает вы можете узнать из эксперимента с JS ссылками тут: http://devaka.ru/articles/complex-javascript-for-google

O1
На сайте с 19.01.2007
Offline
68
#20
lagoff:


4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.

Мне Ваш вариант кажется наиболее простым и эффективным (не на 100% - потому что Гоша через хром и Аналитику, а Яша через свой Бар и Метрику - всетаки "попалят" этот метод).

Хотел уточнить, "...физически закрываем доступ..." - Вы имеете в виду запись в файле .htaccess ?

Если да, то может поделитесь синтаксисом данной записи... 🙄

И еще. Наверное всеже для СДЛ, на который Вы возлагаете долгосрочные надежды, вообще не стоит закрывать от ПС любой контент, в том числе и ссылки. Не рано так поздно будет наказание... (мое мнение). А что думают академики и профессора?

Odissey_1969 добавил 12.10.2011 в 15:21

Odissey_1969:

Хотел уточнить, "...физически закрываем доступ..." - Вы имеете в виду запись в файле .htaccess ?
Если да, то может поделитесь синтаксисом данной записи...

Сам разобрался. Кому интересно, пожалуйста:

RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR] 

RewriteCond %{HTTP_USER_AGENT} ^.*yandex.*
RewriteRule ^/dir/.*$ – [F]

В инете наткнулся на такое мнение, что за закрытие определенных директорий для ПС - сайт может быть писсемизирован или забанен. Якобы есть у ПС боты безликие, вот они и проверяют наличие директорий, закрытых только для ПС. А это уже клоакинг...

Если что не так, - поправьте.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий