- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
1. Для многих реальных пользователей это будет первичный заход, но Ваши алгоритмы могут воспринять их как паразитные, потому что ранее с этого же ip заходил бот.
Согласен. В этом есть слабое звено предложенного метода. Однако я в принципе не представляю себе решение, где будет корректное отделение имитации браузерных действий ботом и живым человеком. C участием живого наблюдателя - да, но программным способом - пока затрудняюсь даже представить себе это решение. Можно конечно анализировать паттерны, фиксировать геометрию перемещений, но это всё в той или иной допустимой погрешности. А вот чётко отделить пользователя от бота, которые например, только выполняют прокрутку страницы - здесь чётких возможностей не вижу.
Если уж Яндекс в настоящий момент не может корректно и точно выполнить эту задачу, то куда уж нам частным лицам.
2. Во многих сервисах и я ввожу капчу. Но, как правило, это уже знакомые и необходимые мне в данный момент сайты. Здесь же речь идет о поисковой выдаче и посетитель судит о сайте только по сниппету.
Согласен. Однако не стоит отметать возможность повторных заходов, где пользователь уже был на сайте.
Как я уже упоминал выше, данная схема пригодна лишь тем, у кого основная доля целевых визитов десктопная и мобильной выдачей можно принебречь.
Отчасти - да, отчасти - чем удачнее и органичней будет решена проверочная страница, - её, к слову, можно вывести на отдельный поддомен без метрики, а потом навигационно возвращать живого пользователя на основной сайт. Посему, пространство для творческих решений здесь довольно обширное и для кого-то получится решить вопрос фильтрации без капчи.
P. S. В спорах смысл есть и немалый)) я сам нередко признавал свою точку зрения ошибочной после анализа аргументированных доводов другой стороны. ;)
Я сам буду рад признать, если будет более полное и более удачное решение, но пока его нет. Пока я вижу старательное нагнетание мнения, что решения нет - с чем я решительно не согласен.
2. Во многих сервисах и я ввожу капчу. Но, как правило, это уже знакомые и необходимые мне в данный момент сайты. Здесь же речь идет о поисковой выдаче и посетитель судит о сайте только по сниппету.
Здесь нужно выбирать, что для вас лучше: или у вас сайт остается в ТОПе и при этом теряется из 10 посетителей 3 (так как они, как и вы не готовы проходить капчу), или у вас сайт оказывается на третьей странице и посетителей вообще не будет (кроме ботов конечно же).
Я же уже писал, не нужно тупо ставить гугловскую капчу, чтобы посетители кликали по гидрантам, светофорам и зебрам, Если включить фантазию, можно при выводе капчи добавить все что угодно, от самой простой, до анимации, и здесь опять же, если включить фантазию (в зависимости от тематики) можно сделать, чтобы не один реальный посетитель не ушел.
p.s. Чтобы поймать бота, не надо думать как бот))
Здесь нужно выбирать, что для вас лучше: или у вас сайт остается в ТОПе и при этом теряется из 10 посетителей 3 (так как они, как и вы не готовы проходить капчу), или у вас сайт оказывается на третьей странице и посетителей вообще не будет (кроме ботов конечно же).
Совершенно верно!
Я же уже писал, не нужно тупо ставить гугловскую капчу, чтобы посетители кликали по гидрантам, светофорам и зебрам, Если включить фантазию, можно при выводе капчи добавить все что угодно, от самой простой, до анимации, и здесь опять же, если включить фантазию (в зависимости от тематики) можно сделать, чтобы не один реальный посетитель не ушел.
Именно! И выше я предложил вариант c "прокладкой" на поддомене. Большая часть ботов отказников - это несколько секунд онлайн, пару прокруток и выход. Реальный же человек осознанно пойдет по навигации. Таким образом, кстати, можно будет реально замерить кол-во зафильрованных живых пользователей без всяких капчей с рефером своего же поддомена.
Вариантов - масса, главное проявить творческую смекалку и начать хоть что-нибудь делать, а не сокрушаться по поводу тайных заговоров и теневом склике Яндекса своей же рекламы.
А дальше реальные и полезные вам пользователи остаются у вас на сайте и учитываются метрикой.
Для кого-то подойдет фильтрация на уровне масок подсети, для кого-то это будет скрупулёзная ручная работа.
Полагаю, что это бесполезно. Некоторые провайдеры маршрутизируют сети минимальными роутами /24, некоторые раздают интернет глобальными блоками, никак их не разбивая, но всё это значения не имеет. И модемные, и проводные пулы ротируются между реальными пользователями и автоматизированными системами нагона трафика безо всякого разбора.
То, что именно по этому мобильному IP зайдёт уже другой реальный пользователь, но с целевым интентом вероятность действительно мала.
У меня есть один сайт, брошенный наглухо (с февраля сего года абсолютно ни каких работ), так вот на нем боты крутят мне ПФ в плюс
Аналогично недавно разбирал пример. Есть факт наплыва левого трафика, но общая картина такая, что отказы наоборот меньше :) поэтому я и говорю, что у каждого будет свой индивидуальный случай.
У меня вопрос был немного о другом - что делать с "паразитными IP" (в Вашей терминологии)?
Не давать ему пагубно влиять на рабочие показатели в Метрике.
Полагаю, что это бесполезно. Некоторые провайдеры маршрутизируют сети минимальными роутами /24, некоторые раздают интернет глобальными блоками, никак их не разбивая, но всё это значения не имеет. И модемные, и проводные пулы ротируются между реальными пользователями и автоматизированными системами нагона трафика безо всякого разбора.
Ну, послушайте, выше уже говорилось и не только мной - либо вы смотрите как паразитный траф валит сайт, позиции проваливаются и бизнес несёт серьёзные убытки, либо вы фильтруете эти вредоносные IP-шники и трафик от них уводите "на прокладки". Выше изложен вариант с поддоменом - здесь вообще можно не использовать капч и большая часть отказного трафика будет генерировать отказы на поддомене, тогда как в Метрику основного сайта они попадать не будут.
Как Вы определяете вероятность?
А вы попробуйте самостоятельно. Возьмите контрольный период до наплыва ботов. Отфильтруйте полезный трафик с сотовых IP. Дальше отсортируйте контрольную выборку так, чтобы отдельный IP был сначала с одним профилем, а потом с другим т.е. новый пользователь под тем же IP. Вот и посмотрите, сколько у вас будет новых пользователей перезашедших под ранее использованным IP. Сколько у вас таких будет? Суммируйте их. Вот и рассчитайте этот процент по отношению к общему трафику.
Сколько у вас таких будет?
Я больше работаю как раз с трафиком, а не с сайтами, и поэтому предлагаю посмотреть на проблему иначе. Например, если региональный пул (включая московский) у оператора составляет 512 ip-адресов, то для сайта с ежедневной посещаемостью в тысячу человек повторный визит состоится максимум через несколько дней, причём неизбежно. Бот это будет или человек - предсказать возможности нет (в лучшем случае).
С другой стороны, на больших пулах, где повторный адрес может выпасть через 5-6 недель, принудительное перенаправление на капчу, поддомен и пр. практически всегда затронет именно реального пользователя, а не бота, единожды использовавшего конкретный адрес.
Иными словами, практика фильтрации ботов по ip мне кажется малоэффективной. Если в любом случае будет определяться профиль поведения, то отсеивать ботов нужно именно по нему, а не по провайдерам.
Я больше работаю как раз с трафиком, а не с сайтами
Из вашего объяснения я понял, но я как раз предлагаю вариант применительно к конкретным проблемам сайта, а не к статистическим вероятностям на больших объемах трафика отдельной подсети.
Если в любом случае будет определяться профиль поведения, то отсеивать ботов нужно именно по нему, а не по провайдерам.
К сожалению, эффективных и доступных для простых пользователей программных способов правильно отличить один профиль поведения от другого и выявить - кто робот, а кто реальный пользователь, увы, нет.
Конкретные рабочие вводные - это массовые отказы из-за паразитного трафика и именно с этим признаком нам приходится бороться.