Пообщайтесь с авторами ПО, которые активно продвигают свой продукт, они вам много занимательного расскажут (если захотят).
Маркетплейсы и любые рекламные площадки нужны исключительно только своим авторам и исключительно для заработка.
Всем остальным они нужны постольку поскольку есть спрос на их контент и их услуги.
Он в первую очередь предоставляет сервис для продажи. А пользоваться его сервисом или нет, решает каждый производитель ПО на своё усмотрение.
Бренд само по себе никому не нужен, если с ним не ведется нацеленной работы.
Эту информацию найдете на их сайте.
"Свокупность факторов" - миф, придуманный платонами, дабы оправдать все косяки с выдачей.
На практике "релевантность" растет или падает под действием накрутчиков. Яндекс эту ситуацию не контролирует.
Ну, эту дружную песню мы знаем :) ситуация меняется и в любом случае поменяется (когда и как - другой вопрос), а кроме того есть Гугл, где накрутки ПФ не работают.
В единичном случае вы никому ничего не занизите.
Как уже говорил, задачи авторов данных заходов могут быть любые и совершенно необязательно с целью вам навредить.
Это может быть технический обход сайтов, обкатка различных программных действий и сильно углубляться в вероятные причины, пока это не начинает вам вредить, не нужно.
Видите, фиксируете, делаете текущие выводы и работаете дальше.
Это понятно :) никому не хочется. Но я надеюсь, вы не преисполнены надеждами, что общение на форуме гарантирует вам защиту на все случаи подозрительной статистики в Метрике? :)
Накрутка паразитного трафика одна из актуальных тем в практике поискового продвижения, поэтому простых, однозначных и исчерпывающих советов здесь нет.
Вы проверьте это на собственном опыте и это будет для вас самой актуальной и правдивой информацией.
Так дело было в том, что они их и не закрывали, держали открытыми до востребования.
Я не сказал, что это ваш случай. Я говорю, что сценариев использования вашего сайта может быть миллион. Сайт, запущенный в интернет пространство и создаётся для того, чтобы им свободно пользовались, а как именно происходит детализация - это уже по обстоятельствам.
Вам же не приходит в голову выйти на балкон и серьезно озадачится, почему сегодня и вчера как-то подозрительно дует ветер с востока на запад? Тоже самое и здесь - не нужно сильно озадачиваться тем, почему ваш сайт используется именно так, пока это не нарушает ваших рабочих планов. Подозрительные и мусорные заходы - это не редкость, просто сосредоточьтесь на более важных задачах.
Это совершенно глупая и нелепая затея, потому что ни одному вменяемому человеку не придёт в голову доверять информации на сайтах, где можно откровенно спамить.
Ну я так понимаю парсинг это скорее было бы Windows 7/8/server
А тут андроид 8, значит кто то вредит специально ? Или при парсинге может быть и мобильный юзер агент?
Имитировать (и передавать) можно любые данные, включая нужный юзер агент.
Цель в данном случае нужно оценивать не по одному признаку, а по системности действий и общности этих признаков.
У меня пару лет назад был такой рабочий случай. Появился заказ - разобраться с паразитным трафиком, потому как топовые позиции начали съезжать.
Стал разбираться - да, есть факт накрутки отказов, рабочий сайт выпадает из числа топов, поисковая посещаемость падает, продажи падают. Начал разбираться (основную часть пропущу).. перейду к финалу.
Обработали все так называемые "черные IP", но осталось полтора десятков явно белых пользователей. И маска общая, и признаки вроде как белые - ну совсем не похожи на ботов, однако каждый день в рабочее время есть заходы и всё, Главная страница открывается, а действий нет, мёртво, лишь иногда на отдельные страницы. Начал разбираться, оказалось, все эти пользователи - офисные служащие той же конторы у которых в закладках был рабочий сайт. Они приходили на работу, выводили сайт из режима сна, вкладки обновлялись и происходил заход, но действий у большинства не было, потому что сайт во вкладке :)
Наверняка узнать - только лично спросить того, кто это делает, а так вы должны понимать, что интернет - это общественная среда, а сайт - открытый ресурс и здесь масса самых различных интересов, начиная с парсинга данных, заканчивая нацеленным деструктивными действиями.
Не только ваш, но и на других сайта встречается подобное. У меня к слову несколько десятков подведомственных сайтов и везде встречается различный нецелевой бот трафик (зачастую иностранный). Что делать - да ничего, пока это не вредит целевым задачам вашего сайта.
Это как своего рода герпес или ВПЧ покуда иммунитет не даёт им развиваться, человек нормально с ним живёт. Так и с сайтами, покуда вы наглядно не увидите проблемы с ранжированием, Яндекс будет вам говорить, что беспокоиться не о чем.
Вывод, что подобные посещения у вас есть. Если это системное явление, значит нужно учесть и наблюдать за ситуацией. Если будет чётко определена зависимость между паразитным трафиком и его видимостью в поисковых системах, то придётся вырабатывать комплекс мер противодействия этому.
Может "да", а может и "нет", нужна более развёрнутая информация и больший период наблюдений.
Можно заблокировать по IP, но в случае нацеленного паразитного трафика, будут возникать подобные заходы с других IP.