Slavomir

Slavomir
Рейтинг
107
Регистрация
05.12.2005

По ВЧ запросам делить лучше, как минимум на 10, т.к. те, кто мониторят свои позиции поднимают статистику очень сильно, но переходов не совершают.

Вариантов негусто:

1. Попробуйте откатить систему до даты, когда вирус отсутствовал. Увы, некоторые вирусы такой возможности лишают.

2. Скачайте загрузочный диск с антивирусом. Такой есть бесплатно и Касперского и у Доктора Веба.

3. Если оба варианта не сработали, то поможет только полная переустановка системы.

Проблема в том, что Вы подходите с позиции "хочу, чтобы меня защитили". Попробуйте подумать, как это сделать и поймете, что все не так просто.

gidronic:
Ну во-первых мы же не говорим об присуждаемом "авторстве", как об истине в последней инстанции. Речь всего лишь о том, что ПС могла бы считать ПЕРВОИСТОЧНИКОМ ресурс, впервые опубликовавший какой-то документ. Без признания каких-то авторских прав и так далее. Это сродни новостям.

И как вы это себе представляете? Поисковик должен дежурить на каждом сайте и оптом запрашивать все документы со всех сайтов одновременно. Ведь робот посещает сайты, так же, исходя из их жирности. Будь у вас молодой сайт, а плагиатор опытен и шустр, поисковик сочтет, что первой информация появилась на сайте плагиатора.

gidronic:
Что же касается незнания или неопытности, то тут вообще говорить не о чем. Если человек покупает квартиру и не знает, что права на собственность надо зарегистрировать - это трудности личного характера. Многие не знают законов, и это помогает другим ими пользоваться в своих интересах. Но ведь никому в голову не придёт отменять Закон, потому что кто-то с ним не знаком.

Государство, создавая законы, создает инструменты их выполнения и органы для разбирательства, включая суды различных назначений и уровней. Даже если не зарегистрировал право собственности (хотя, в очень не многих случаях это получится сделать), то, в случае возникновения проблем, можешь доказать свое право через суд и заставить регистрирующие органы осуществить регистрацию. Предлагаете поисковикам сделать подобные структуры для разбирательства?

gidronic:
Ну пользоваться - не пользоваться - личное дело каждого. Возможность такая была бы и хорошо. Возьмите к примеру авторские права на музыку, тексты, стихи, патенты на изобретения и так далее. Права и патенты регистрируются в добровольном порядке. Хочешь чтобы не украли - регистрируешь. Если по фигу - не регистрируешь. Делов то.

Чтобы зарегистрировать патент, нужно нехило потратиться и при этом патент могут не дать или опротестовать его. А что делать, если плагиатор зарегистрировал на себя контент того, кто даже понятия не имел о таком сервисе регистрации? Сервис станет оружием опытных пользователей Сети против менее опытных. Соответственно, скандалов будет вагон и маленькая тележка.

gidronic:
В некоторых темах небось доходит до 100% от общего количества запросов :-)))

Легко. При желании, можно даже самому таких запросов насоздавать, чтобы малоопытные за ними гонялись. Да методы сбора статистики по запросам у Яндекса такие эффекты создают в немалом количестве.

gidronic:
Чтобы уравнять возможности владельцев разных площадок, отличающихся скоростью индексации, можно сделать в панели вебмастера фичу скармливания нового материала, по принципу добавления урлы. Можно сделать это с подтверждением каким-то. Типа документ принят, или проиндексирован, и можете размещать.

ИМХО, это единственный реальный вариант. У поисковика должен быть сервис, позволяющий регистрировать уникальный авторский материал и место его оригинального расположения. Разместил материал и тут же его зарегистрировал. В результате у плагиатора нет ни малейших шансов.

Только есть ведь и обратная сторона медали и она даже многогранна. Этим сервисом должны пользоваться все сайтостроители поголовно, иначе, склоки за авторство не исчезнут. Но это нереально в принципе. Система должна функционировать только для новых материалов. Добавление старых материалов должно либо отвергаться, либо придется вводит какой-то арбитраж. Что делать поисковику, если оригинальный сайт прекратил существование, заражен вирусом, имеет плохую доступность и при других проблемах?

saykel:
А еще как вы думаете почему у яндекса есть запрос:
Российские ценные бумаги - 6000 тыс запросов
А у гугла такого запроса нет в статистике.. типа на столько мал что не показывают.

Во первых, Вы уверены, что этот запрос в чистом виде вообще спрашивается? Яндекс к более коротким фразам добавляет статистику и от более длинных, т.е. в ваш запрос включается статистика от запросов:

российский рынок ценных бумаг

российские государственные ценные бумаги

рынок ценных бумаг российской федерации

и т.д.

и что останется после вычитания? Вычтите еще проверяльщиков, которые мониторят позицию своих сайтов. В общем, когда выйдите на первую позицию по этому запросу, вполне может оказаться, что реального трафика там практически нет.

ifree:
В robots.txt пропишите первыми строчками

User-Agent: DISCo Pump, Wget, WebZIP, Teleport Pro, WebSnake, Offline Explorer, Web-By-Mail, Teleport Pro/1.29, Scooter-W3-1.0
Disallow: /

Хоть какая то защита.

Не смешите. robots.txt носит рекомендательный характер. Он не способен помешать действовать роботу по своему усмотрению. Запретить кому-то или чему-то доступ к сайту можно только средствами сервера. Просто не отдавать контент при определенном UserAgent, но тогда плагиатор просто сменит его на что-то невинное. Можете заблокировать доступ плагиатору по IP, но тогда он воспользуется прокси или динамическим адресом.

Так что остается только одна защита от воровства - закрытие сайта.🚬

Вы не совсем поняли, о чем я говорю. Есть методики семантического, лексического, синтаксического анализа текста, который с определенной долей вероятности могут сказать, написан ли текст одним человеком или разными людьми. Каждый человек использует свои фразы, обороты, построение предложений и т.д. Чтобы подстроится под это, нужен особый талант. В частности так анализировали тексты великих писателей, определяли принадлежность каких-то текстов им и даже возникали вопросы, писал ли писатель тексты самостоятельно или за него это делал кто-то, т.к. тексты различных произведений катастрофически различались.

Соответственно при плагиате можно ссылаться на этот анализ, предоставляя в качестве доказательства истинного автора тектов и другие тексты, написанные им. А все эти анализаторы плагиата никак не доказывают, кто у кого украл.

9MASTER9:
Странно, я как раз на хостеров рассчитывала больше всего. Так как даже Яндекс советует обращаться именно к ним, в случае если плагиатор не реагирует на письма.

Хостер - не суд. У него явно недостаточно данных, чтобы решить, кто прав. Да и свое время и силы он на это тратить не будет, а DMCA по которому делают наезды на хостеров за бугром у нас нет.

ЗЫ: Кстати, кому ни будь известны бесплатные программы стилистического / лексического / синтаксического анализа текстов для определения авторства? Ну, типа тех, которыми определяли, принадлежит ли тот или иной текст тому или иному известному автору или нет. Может быть с их помощью будет проще доказывать кто в реальности написал текст?

Всего: 943