- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
По счетчикам вроде работает такое
Может и работает, но с проблемами
Может и работает, но с проблемами
Ой....
И сервис по борьбе с ботами есть, достаточно гибкий. Кажись 15 уе в год.
Забей в гугл "Порно запросы в Яндекс метрике" и прочитаешь целый опус, как чувак с ботами боролся. Вроде победил.
Может и работает, но с проблемами
Ну так вначале скрипта ж нужно <? поставить, а в конце закрыть. Иначе это просто текст
Да все это чушь, фильтровать ботов не получится. Тут должна метрика уже правильно работать и определять. Вычислить бота можно только по определенным следам, отпечаткам. Делать это должен Яндекс, Вы сам нифига не сделаете, а яндекс на основе анализа большого количества сайтов и посещений +нейросети, сможет запросто вычислять и блочить. Причем на уровне поисковой системы, выбивая капчу уже на моменте ввода поискового запроса. И то что в метрику можно любую дичь заливать меняя реферер тоже бредятина.
Да все это чушь, фильтровать ботов не получится. Тут должна метрика уже правильно работать и определять. Вычислить бота можно только по определенным следам, отпечаткам. Делать это должен Яндекс, Вы сам нифига не сделаете, а яндекс на основе анализа большого количества сайтов и посещений +нейросети, сможет запросто вычислять и блочить. Причем на уровне поисковой системы, выбивая капчу уже на моменте ввода поискового запроса. И то что в метрику можно любую дичь заливать меняя реферер тоже бредятина.
В яндексе такие каптчи особенно в рся при подборе слов что и группа профессоров не разгадает.
Вы сам нифига не сделаете, а яндекс на основе анализа большого количества сайтов и посещений +нейросети, сможет запросто вычислять и блочить
да в пределах отдельно взятого сайта не вычислишь по нормальному. поэтому антибот у меня вычисляет это на анализе больших данных, бигдата рулит )))
На тему подпишусь.
У меня на сайте 25% такого трафика. В основном мобильники. Прямые переходы. Настоящих посетителей 1000 в сутки. Сайт коммерческий.
Google Analytics их не видит.
У сайта в течение всего года было около 80% в топ-10 (по списку из 400+ запросов), а сейчас за месяц обвалились до 30% и продолжает обваливаться. Боты льются особенно яростно с начала декабря. Уже месяц переписываюсь с ТП яндекса, они как всегда в своем стиле - наш алгоритм самый умный, ничего не делайте.
Установка cloudflare и recaptcha проблему не решает, хз даже что с этим всем делать, нальешь в противовес качественных переходов - еще и фильтр получишь. Хотя бы уже на стороне Яндекса официально признали проблему, было бы чем "официально" прикрыться перед заказчиками, а так даже сослаться не на что.