- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
мобильное приложение тоже уже несколько дней еле работает (отчеты не все открывает)
Здравствуйте! Сейчас мобильное приложение Метрики работает в штатном режиме. Проверьте, пожалуйста.
Здравствуйте! Роботы, которые сразу представились автоматически отфильтровываются из статистики. Они попадают только в отчёт Роботы.
Роботов, которые определены по поведению, вы можете видеть в обычных отчётах Метрики и исключать их при необходимости из общего массива данных. Больше об этом можно узнать в нашей Справке: https://yandex.ru/support/metrica/general/robots.html Посмотрите, пожалуйста.
А о том, как работает новый алгоритм подробно рассказываем в нашем Блоге: https://yandex.ru/blog/metrika/yandeks-metrika-obnovila-sistemu-opredeleniya-robotov
Все равно непонятно. Чем отличаются роботы, отфильтрованные по поведенческим факторам, которые стоят в отчете "Роботы" рядышком с теми, что представились роботами от тех, которые отсеиваются в показателях "с роботами" и "без роботов"?
Если ЯМетрика их автоматически отфильтровывает из статистики, то кого оставляет? И почему СОВСЕМ не фильтрует тех, кто пришел прямыми заходами?
Зачем? Если это какая-то имитация определения роботов. Которая на самом деле их не определяет...
Вот на скрине прямые переходы, с роботами и без. В действительности прямых переходов на этом сайте до 150/в день. Пики (400, 600, 1000+...), это бототрафик. Из которого ваш инструмент определяет как роботов единицы, или десятки. Когда их овер 1000.
Ровно такая же картинка по другим типам трафика, из соцсетей, по ссылкам и пр. Когда под их реферами идет атака ботов. Вы их не определяете. Вы просто рисуете некую кривую, которая (смотря по типу трафика) на 1-6% выше, и назвали ее "С роботами".
Слегка рандомизировали, что бы не была совсем уже параллельной. Но рукожопо. Поэтому иногда "без роботов" у вас выходит больше.)))
К сожалению, скриншоты малоинформативны в данной ситуации. Для того, чтобы мы с командой Метрики смогли её проанализировать, потребуется номер счётчика и ссылка на отчеты. Пришлите их, пожалуйста, посмотрим, в чём может быть дело.
чтобы мы с командой Метрики смогли её проанализировать
У меня доступ боле чем к сотне сайтов, некоторые периодически под атаками ботов. С аномальным трафиком кратно превышающим обычный. Во всех случаях инструмент "Без роботов" работает точно так же. Отминусовывая 1-6%, даже если там боты почти все.
Вы сделали муляж, имитацию определения роботов. Его не надо анализировать. Надо сделать инструмент, который правда будет их отфильтровывать.
У меня доступ боле чем к сотне сайтов, некоторые периодически под атаками ботов. С аномальным трафиком кратно превышающим обычный. Во всех случаях инструмент "Без роботов" работает точно так же. Отминусовывая 1-6%, даже если там боты почти все.
Вы сделали муляж, имитацию определения роботов. Его не надо анализировать. Надо сделать инструмент, который правда будет их определять и показывать.
У меня в метрике показывает что на сайтах нет роботов. В РСЯ, в свою очередь, все сайты под фильтром, клики не учитываются.
У меня в метрике показывает что на сайтах нет роботов. В РСЯ, в свою очередь, все сайты под фильтром, клики не учитываются.
Извините не верю. Сделайте скриншот пожалуйста.
Извините не верю. Сделайте скриншот пожалуйста.
Извините, не верьте. Не вижу смысла что-либо доказывать.
Извините, не верьте. Не вижу смысла что-либо доказывать.
Понятно...
На всех сайтах их инструмент "Без роботов" показывает их наличие. И +/- одно и тоже в процентах. На 1000 посетителей, "С роботами", обязательно показывает + 10-60 "роботов".
Но тут не про РСЯ. Тут про нерабочий инструмент в метрике.
У меня доступ боле чем к сотне сайтов, некоторые периодически под атаками ботов. С аномальным трафиком кратно превышающим обычный. Во всех случаях инструмент "Без роботов" работает точно так же. Отминусовывая 1-6%, даже если там боты почти все.
Вы сделали муляж, имитацию определения роботов. Его не надо анализировать. Надо сделать инструмент, который правда будет их отфильтровывать.
А такой есть инструмент в яндекс дзене, статистика показывает ноль роботов и роботности, вот только такие технологии не для всех.
Понятно...
На всех сайтах их инструмент "Без роботов" показывает их наличие. И +/- одно и тоже в процентах. На 1000 посетителей, "С роботами", обязательно показывает + 10-60 "роботов".
У меня инструмент с роботами и без показывает абсолютно одинаковые значения. Хотя на некоторых сайтах 50% посещаемости это роботы, но метрика, судя по всему, считает их не роботами.