- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такая ситуация:
Я сделал сайт который умеет подстраиваться под разные поисковики.
Например под MSIE он использует все возможности JavaScript, под Opera и NN он показывает в меру их возможностей. А для всех других он выдает только контент, без всяких скриптов (в старых добрых традициях), т.е даже человек который использует текстовыйброузер сможет нормально прочитать сайт(А таже у меня идет подгон под расширение для IE). Само собой, что поисковики наткнуться на третию версию. Контент везде один и тотже. Меняется ТОЛЬКО оформление сайта.
Технически - это клоакинг(так как я читаю USER_AGENT, и в зависимости от результата выдаю разный результат)
Но контент не менятся.
Остается содержимое, остаются ссылки для всех вариантов.
Как отнесутся к этому клоакингу поисковики?
Не забанят ли они сайт?
Нет, не забанят.
Клоакинг, это, в первую очередь, изменение контента. В Вашем случае изменения не происходит - изменяется только его оформление. Ваш вариант стоит в одном ряду с сайтами, позволяющими посетителю выбирать цветовое или стилевое оформление сайта, либо язык представления информации, а за такое глупо банить.
Все баны ставятся людьми, роботы лишь наводят модераторов на подозрительные сайты. На Ваш сайт может придти модератор, т.к. робот его может счесть подозрительным (хотя маловероятно, что это робот сможет поймать), но бана точно не будет.
Спасибо за ответ :-))), надеюсь, что поисковики и редакторы того же мнения :-)))
Спасибо за ответ :-))), надеюсь, что поисковики и редакторы того же мнения :-)))
Я поднял на форуме Яндекса вопрос на эту тему - "меня беспокоит возможность автоматического помещения роботом в бан-лист за клоакинг, а не проверка редактором - на спам не будет даже намека", и вот что ответил Илья Сегалович: "никакие "технические действия" сами по себе (без факта обмана, спама и т.д.) не являются нарушением лицензии. нарушением является "спам"/"обман", часто (но не всегда и не только) сопровождающийся определенными "техническими действиями".
которые в лицензии приведены для примера."
Здесь можно посмотреть упомянутый топик на Яндексе
Большое спасибо за ответ. Я с интересом прочитал топик. Это хорошо, значит данную технологию можно использовать и дальше. На самом деле подмена содержимого у меня не возможна, так как информация береться из базы и просто скрипт по разному ее генерит для разных броузеров.
Проблем быть не должно - поиковики всё равно все видят даже не как тектовые броузеры, а как если Вы контент вытащите из таблиц (слоев) и просто расположите поэтапно сверху вниз слева направо.
Так что они более по совпадению текста смотрят - при совпадении всё ок.