- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
по некоторым причинам сделал на сайте такую фишку в случае если клиентская сторона не принимает кукисы то скрипт останавливается и требует от пользователя обязательной поддержки кукис в браузере
Вопрос: поисковые роботы по умолчанию также как и обычный браузер принимает кукисы ? а то боюсь что гугл боту и ядекс боту будет показываться страница не та
Вопрос: поисковые роботы по умолчанию также как и обычный браузер принимает кукисы ? а то боюсь что гугл боту и ядекс боту будет показываться страница не та
Официальные работы имеет стандартный юзер-агент, поэтому их можно обрабатывать через юзер-агент, но это смахивает на клоакинг
Мне нужно знать принимает ли поисковые боты кукисы и все
Там нет клоакинга я просто выключаю сайт в случае если браузер не принимает кукисы на оформлении страницы это никак не отражается
greysniper, я бы не ожидал от роботов приёма кук. Но Вы легко можете выяснить точный ответ на этот вопрос для разных роботов, проанализировав свои логи. И, скорее всего, Вы убедитесь в том, что куки они не едят.
Там нет клоакинга я просто выключаю сайт в случае если браузер не принимает кукисы на оформлении страницы это никак не отражается
У меня есть подозрения, что гугл умеет работать с куками, так как у него есть сервис индексации разделов защищенных учетными данными, но большинство роботов не работают с куками, так как они приходят забрать контент и потом отдают его анализатору, который уже анализирует загруженную страницу. Поисковый робот по сути делает копию сайта у себя.
Поэтому если это делается ради защиты DDOSа, то в инете можно найти список юзер-агентов поисковиков и для них выдавать страницу после проверки агента, а для остальных через куки.
ИМХО: Если аудитория сайта профессиональные интернет-пользователи, то будут проблемы. Я по умолчанию блокирую куки для всех новых сайтов и открываю запись кук только для сайтов, которые мне нужны...
сделал на сайте такую фишку
На JavaScript или PHP ?
На JavaScript или PHP ?
сделано на PHP для того чтобы отсекать грабберы вида
на сайте есть контент который периодически пятаюстся сграбить парсерами вот это одна из линий обороны
на сайте есть контент который периодически пятаюстся сграбить парсерами вот это одна из линий обороны
Сайт можно выкачать с работающими куками программой offline explorer и его аналогов.
на сайте есть контент который периодически пятаюстся сграбить парсерами вот это одна из линий обороны
Конечно, роботы не будут у себя хранить какие-то куки, им на них плевать.
Поэтому готовьтесь, что они контента не увидят.
Либо по User-Agent надо выдавать нормальный контент роботам поисковиков.
Либо по User-Agent надо выдавать нормальный контент роботам поисковиков.
Но тогда исходная цель (защита от граббинка контента) отдалится ещё сильнее, так как любой балбес сможет прикинуться поисковиком. Если отличать поисковики, то по IP, а не по агенту.
С другой стороны, как только сайт попадёт в кэши поисковиков, его оттуда легко заберут, вообще не тревожа сервер топикстартера.
Если отличать поисковики, то по IP, а не по агенту.
Список IP изменяется, чтобы черные оптимизаторы не смогли манипулировать результатами поиска.