- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
а где там дорвей?)) речь о сдл на который ссылка, там все расписано что да как (сайт не мой)
в ответе платона (кстати он стандартный) явно указано за что - пере направление пользователей, а каким способом это делается абсолютно не важно :)
а может перенаправление робота?)
Смысл в том что стоял плагин преобразрования исхдящих ссылок во внутренние (в первом и втором случае), за что и фильтранули. Юзеры не перенаправлялись, в отличии от роботов.
Тоесть по сути вид клоакинга -
Юзеры не перенаправлялись, в отличии от роботов
клоакинг чистой воды - бан гарантирован :)
так какая тогда разница между вопросом ТС про закрытие ссылок скриптом от роботов и приведенными примерами где происходит тоже самое? И тут и там клоакинг
И тут и там клоакинг
нет, и пользователям и роботам отдаётся один и тот же контент и при одинаковых действиях происходит одно и тоже :)
Это какаято "юридическая заморочка". Получается что один скрипт вне закона а второй "законен" при том что эффект от них один и тотже (робот не видит исходящей ссылки, потому что не может прочитать скрипт)..
В таком случае модер при ручной проверке может зафильтровать
как это одно и тоже? если робот не видит исходящей ссылки значит он по ней не переходит, ну а юзер переходит
как это одно и тоже?
если посетитель заходит с отключённым js (как робот) он тоже ни куда не перейдёт
если робот заходит из под браузера, при клике на элементе - он перейдёт.
при том что эффект от них один и тотже
в том-то и дело что разный :)
За кодированные JS-ссылки ко мне пришла панда (ну или ещё какая-то жесткая животина от Гугла), причем пришла сразу, как только я такие ссылки внедрил.
После того как убрал - фильтр отменили.
О том как правильно закрывать ссылки через JS и какой из способов работает вы можете узнать из эксперимента с JS ссылками тут: http://devaka.ru/articles/complex-javascript-for-google
4) Допускаем, что хитрые ПС могут для полной сборки страницы (со всеми скриптами имеется в виду) игнорировать Disallow в robots.txt, поэтому физически закрываем доступ к нашему файлу на сервере для запросов с роботов ПС.
Мне Ваш вариант кажется наиболее простым и эффективным (не на 100% - потому что Гоша через хром и Аналитику, а Яша через свой Бар и Метрику - всетаки "попалят" этот метод).
Хотел уточнить, "...физически закрываем доступ..." - Вы имеете в виду запись в файле .htaccess ?
Если да, то может поделитесь синтаксисом данной записи... 🙄
И еще. Наверное всеже для СДЛ, на который Вы возлагаете долгосрочные надежды, вообще не стоит закрывать от ПС любой контент, в том числе и ссылки. Не рано так поздно будет наказание... (мое мнение). А что думают академики и профессора?
Odissey_1969 добавил 12.10.2011 в 15:21
Хотел уточнить, "...физически закрываем доступ..." - Вы имеете в виду запись в файле .htaccess ?
Если да, то может поделитесь синтаксисом данной записи...
Сам разобрался. Кому интересно, пожалуйста:
RewriteCond %{HTTP_USER_AGENT} ^Google.* [OR]RewriteCond %{HTTP_USER_AGENT} ^.*yandex.*
RewriteRule ^/dir/.*$ – [F]
В инете наткнулся на такое мнение, что за закрытие определенных директорий для ПС - сайт может быть писсемизирован или забанен. Якобы есть у ПС боты безликие, вот они и проверяют наличие директорий, закрытых только для ПС. А это уже клоакинг...
Если что не так, - поправьте.