Интересная идея программы.. для этих целей(для обрабоки такого типа данных) мне кажется очень хорошо подойдет граф база данных.. Осталось найти подходящий инстумент для визуализации данных и отчетов по ним и можно будет реализовать.
спасибо, какие именно графики вы там видите ?
Да, это просто утилита для контроля своего списка урлов на страницах которых проставлены бэклинки на ваши ресурсы. Список как урл так и ожидаемых бэклинков должны загрузить вы сами.
Детальное описание программы так же можно найти здесь http://www.raritysoft.com/reviews/ensure-the-validity-and-quality-of-your-backlinks-with-raritysoft-backlink-checker
Гугл уже проверил файл и снял свое предупреждение. Это у них стандартная практика цепляться к новым файлам у которых пока еще мало закачек. Сейчас уже все ок.
там вирусов нет и быть не может, вот отчет по всем антивирус системам https://virustotal.com/en/file/d59211b10d640c7cc3e26d94dfd9eb0584e04535d235d50aa8ce6293213bfeef/analysis/ для этого файла.
Гугл придирчивый просто к новым файлам стал. Написал им запрос на пересмотр.
Вот неплохая статья где объясняется почему Гугл может так себя вести https://helloacm.com/google-webmaster-reports-uncommon-downloads-or-harmful-contents/
где этот параметр выбирать ? Так же у вас один и тот же код стоит на всех сабдоменах ?
Спасибо. Я там или невнимательно читаю, или там необходимо в гугл аналитике ..в ее коде перечислить все поддомены для линковки. Это так ?
в одном месте данные собирать по всем поддоменам
с материалом все ок, есть что почитать.. так же в индексе гугла тысячи других страниц с этого сайта с контентом в 100 раз хуже чем эти статьи.. и ничего.. он их не выбрасывает.
Конечно смущает. Вот даже здесь тему создал что б понять куда двигаться с решением этой проблемы.