- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Почему бы просто не загружать метрику для пользователя из предположительного черного списка до тех пор, пока он не выполнит несколько больше действий на сайте, чем в среднем делает бот? Чем это хуже обсуждаемых «прокладок» с капчей и т.п.?
Здесь есть один нюанс, как вообще яндекс учитывает заходы? , если только с помощью метрики, можно ее вообще снять и не париться, либо капчу, либо ваш вариант или в соседней теме предагали платное решение. Если учет идет не по метрике, то вариантов нет вообще, кроме как на свой страх и риск черными методами-автоматический редирект например.
Почему бы просто не загружать метрику для пользователя из предположительного черного списка до тех пор, пока он не выполнит несколько больше действий на сайте, чем в среднем делает бот? Чем это хуже обсуждаемых «прокладок» с капчей и т.п.?
18 максимум секунд у ботов (статистика моего сайта)
если только с помощью метрики, можно ее вообще снять и не париться
Рапортуют о просадках в результате таких манипуляций.
18 максимум секунд у ботов (статистика моего сайта)
Здесь не временем единым, но в том числе. Просто сомневаюсь, что у большинства боты выполняют какие-то негрубые сложные действия: на моих сайтах это либо прокрутка вниз и нажатие на почту/телефон (так делают сразу на 3 сайтах), либо моментальные переходы между страницами, либо затуп на полминуты в начале страницы и резкий прыжок в центр с последующим выходом. Закономерности и «лакомые места» есть.
Здесь не временем единым, но в том числе. Просто сомневаюсь, что у большинства боты выполняют какие-то негрубые сложные действия: на моих сайтах это либо прокрутка вниз и нажатие на почту/телефон (так делают сразу на 3 сайтах), либо моментальные переходы между страницами, либо затуп на полминуты в начале страницы и резкий прыжок в центр с последующим выходом. Закономерности и «лакомые места» есть.
2 прокрутки и рандомно тыкают а потом конец сессии. 😀 Ида, тоже заметил куда любят и пробуют кликнуть.. Если убрать с этих мест рекламу на 80% скликивание можно срезать..
Здесь есть один нюанс, как вообще яндекс учитывает заходы? , если только с помощью метрики, можно ее вообще снять и не париться, либо капчу, либо ваш вариант или в соседней теме предагали платное решение. Если учет идет не по метрике, то вариантов нет вообще, кроме как на свой страх и риск черными методами-автоматический редирект например.
Пользователь увидит капчу, закроет вкладку и вернется в поиск, в этот момент ПФ вашего скатится ниже плинтуса
Пользователь увидит капчу, закроет вкладку и вернется в поиск, в этот момент ПФ вашего скатится ниже плинтуса
У вас стоит капча? Вы пробовали ее ставить? Вы мониторили при этом действия посетителей с гугла? У вас стоит собственно разработанная капча? Каким образом метрика зафиксирует ПФ, если ее в капче нет? Как задолбали эти теоретики. Сайт улетит на третью страницу и вообще никто не зайдет.
Я с ботами боролся с января 2019 года (первый раз их зафиксировал в ноябре 2018). Перепробовал для защиты около 10 разных скриптов, в том числе и автоматические редиректы при определенных условия.
По сентябрь этого года один сайт был в такой заднице (видимость с 87% упала до 2%). В сентябре у меня все вернулось на январские 2019 года показатели.
На другом сайте (при всех одинаковых условиях продвижения с первым) нет никакой защиты и он как был в 5 точке, так там и сидит.
На третьем сайте так же нет защиты, бросили им заниматься и боты крутят ПФ в плюс- там рост идет и показатели лучше второго в разы.
Четвертый сайт так же без защиты как улетел-так там и сидит, но ботов уже 2 месяца там нет вообще.
Все эти сайты одной тематики раньше стояли в рядок в ТОПе .
Я написал ранее: Если учет идет не по метрике, то вариантов нет вообще.
У вас стоит капча? Вы пробовали ее ставить? Вы мониторили при этом действия посетителей с гугла? У вас стоит собственно разработанная капча? Каким образом метрика зафиксирует ПФ, если ее в капче нет? Как задолбали эти теоретики. Сайт улетит на третью страницу и вообще никто не зайдет.
Я с ботами боролся с января 2019 года (первый раз их зафиксировал в ноябре 2018). Перепробовал для защиты около 10 разных скриптов, в том числе и автоматические редиректы при определенных условия.
По сентябрь этого года один сайт был в такой заднице (видимость с 87% упала до 2%). В сентябре у меня все вернулось на январские 2019 года показатели.
На другом сайте (при всех одинаковых условиях продвижения с первым) нет никакой защиты и он как был в 5 точке, так там и сидит.
На третьем сайте так же нет защиты, бросили им заниматься и боты крутят ПФ в плюс- там рост идет и показатели лучше второго в разы.
Четвертый сайт так же без защиты как улетел-так там и сидит, но ботов уже 2 месяца там нет вообще.
Все эти сайты одной тематики раньше стояли в рядок в ТОПе .
Я написал ранее: Если учет идет не по метрике, то вариантов нет вообще.
Стояла ранее, одни отказы шли с нее реальных пользователей. И по себе знаю, если вижу капчу закрываю и ухожу. Нет времени сидеть ее разгадывать по 2 - 3 раза
По сентябрь этого года один сайт был в такой заднице (видимость с 87% упала до 2%). В сентябре у меня все вернулось на январские 2019 года показатели.
Смешно, алгоритм поменялся вот и вернулось у вас, у кого данные отличаются от ваших в сентябре наоборот просели. Все смотрится индивидуально, причину просадки знать вы не можете, так как Вы не создатель алгоритма.