По ВЧ запросам делить лучше, как минимум на 10, т.к. те, кто мониторят свои позиции поднимают статистику очень сильно, но переходов не совершают.
Вариантов негусто:
1. Попробуйте откатить систему до даты, когда вирус отсутствовал. Увы, некоторые вирусы такой возможности лишают.
2. Скачайте загрузочный диск с антивирусом. Такой есть бесплатно и Касперского и у Доктора Веба.
3. Если оба варианта не сработали, то поможет только полная переустановка системы.
Проблема в том, что Вы подходите с позиции "хочу, чтобы меня защитили". Попробуйте подумать, как это сделать и поймете, что все не так просто.
И как вы это себе представляете? Поисковик должен дежурить на каждом сайте и оптом запрашивать все документы со всех сайтов одновременно. Ведь робот посещает сайты, так же, исходя из их жирности. Будь у вас молодой сайт, а плагиатор опытен и шустр, поисковик сочтет, что первой информация появилась на сайте плагиатора.
Государство, создавая законы, создает инструменты их выполнения и органы для разбирательства, включая суды различных назначений и уровней. Даже если не зарегистрировал право собственности (хотя, в очень не многих случаях это получится сделать), то, в случае возникновения проблем, можешь доказать свое право через суд и заставить регистрирующие органы осуществить регистрацию. Предлагаете поисковикам сделать подобные структуры для разбирательства?
Чтобы зарегистрировать патент, нужно нехило потратиться и при этом патент могут не дать или опротестовать его. А что делать, если плагиатор зарегистрировал на себя контент того, кто даже понятия не имел о таком сервисе регистрации? Сервис станет оружием опытных пользователей Сети против менее опытных. Соответственно, скандалов будет вагон и маленькая тележка.
Легко. При желании, можно даже самому таких запросов насоздавать, чтобы малоопытные за ними гонялись. Да методы сбора статистики по запросам у Яндекса такие эффекты создают в немалом количестве.
ИМХО, это единственный реальный вариант. У поисковика должен быть сервис, позволяющий регистрировать уникальный авторский материал и место его оригинального расположения. Разместил материал и тут же его зарегистрировал. В результате у плагиатора нет ни малейших шансов.
Только есть ведь и обратная сторона медали и она даже многогранна. Этим сервисом должны пользоваться все сайтостроители поголовно, иначе, склоки за авторство не исчезнут. Но это нереально в принципе. Система должна функционировать только для новых материалов. Добавление старых материалов должно либо отвергаться, либо придется вводит какой-то арбитраж. Что делать поисковику, если оригинальный сайт прекратил существование, заражен вирусом, имеет плохую доступность и при других проблемах?
Во первых, Вы уверены, что этот запрос в чистом виде вообще спрашивается? Яндекс к более коротким фразам добавляет статистику и от более длинных, т.е. в ваш запрос включается статистика от запросов:
российский рынок ценных бумаг
российские государственные ценные бумаги
рынок ценных бумаг российской федерации
и т.д.
и что останется после вычитания? Вычтите еще проверяльщиков, которые мониторят позицию своих сайтов. В общем, когда выйдите на первую позицию по этому запросу, вполне может оказаться, что реального трафика там практически нет.
Не смешите. robots.txt носит рекомендательный характер. Он не способен помешать действовать роботу по своему усмотрению. Запретить кому-то или чему-то доступ к сайту можно только средствами сервера. Просто не отдавать контент при определенном UserAgent, но тогда плагиатор просто сменит его на что-то невинное. Можете заблокировать доступ плагиатору по IP, но тогда он воспользуется прокси или динамическим адресом.
Так что остается только одна защита от воровства - закрытие сайта.🚬
Вы не совсем поняли, о чем я говорю. Есть методики семантического, лексического, синтаксического анализа текста, который с определенной долей вероятности могут сказать, написан ли текст одним человеком или разными людьми. Каждый человек использует свои фразы, обороты, построение предложений и т.д. Чтобы подстроится под это, нужен особый талант. В частности так анализировали тексты великих писателей, определяли принадлежность каких-то текстов им и даже возникали вопросы, писал ли писатель тексты самостоятельно или за него это делал кто-то, т.к. тексты различных произведений катастрофически различались.
Соответственно при плагиате можно ссылаться на этот анализ, предоставляя в качестве доказательства истинного автора тектов и другие тексты, написанные им. А все эти анализаторы плагиата никак не доказывают, кто у кого украл.
Хостер - не суд. У него явно недостаточно данных, чтобы решить, кто прав. Да и свое время и силы он на это тратить не будет, а DMCA по которому делают наезды на хостеров за бугром у нас нет.
ЗЫ: Кстати, кому ни будь известны бесплатные программы стилистического / лексического / синтаксического анализа текстов для определения авторства? Ну, типа тех, которыми определяли, принадлежит ли тот или иной текст тому или иному известному автору или нет. Может быть с их помощью будет проще доказывать кто в реальности написал текст?