Как поясковая система узнаёт чья статься?

12
R
На сайте с 28.01.2006
Offline
95
1210

Допустим, я написал статью, поместил на сайт.

У меня эту статью спёрли и поместили на свои сайты, как поисковая система поймёт, что я первый написал эту статью?

Это определяет человек или робот?

Меняюсь тематическими ссылками с следующими тематиками: Компьютеры, Связь, Hardware, Системы безопасности! Монтаж кондиционеров (http://www.coldfresh.ru)!
Егор
На сайте с 28.02.2006
Offline
231
#1
radist:
У меня эту статью спёрли и поместили на свои сайты

radist, такое часто бывает.

radist:
как поисковая система поймёт что я первый написал эту статью?
Это определяет человек или робот?

Никто не будет париться по этому поводу :) Немного грубо, но таковы реалии... :(

ЗЫ. А даже если определит? Что делать-то будет? Банить? :) А вот к хостеру можно настучать или через whois поглядеть и купить биту...

Shakes.pro (http://Shakes.pro/) & Leadbit.com (http://Leadbit.com/) - товарка по всему миру С уважением, Егор
Vetra
На сайте с 07.04.2005
Offline
200
#2

radist, никак не определят. Если придумаете действенный способ как отличить оригинал - напишите Яндексу :)

Murdoc (msk)
На сайте с 21.11.2005
Offline
146
#3

Оч просто! первая проиндексированая статья является оригинальной! остальные дубли! только базу надо вести ну очень огромную чтобы помнить весь текст страниц! тут даже серверов гугловских не хватит )

[Удален]
#4
Как поясковая система узнаёт чья статься?

Лично вашу по бааальшой граматнасти 😂

MaxiK
На сайте с 20.06.2005
Offline
223
#5
Murdoc (msk):
Оч просто! первая проиндексированая статья является оригинальной!

бред. а если стырили на следующий день после появления (а если через пару часов ? ), а у сайта котоорый тырил намного лучше индексация проходит?

минус бы поставил, но лень...

Логистика из Китая. Полный цикл. UA.
Vetra
На сайте с 07.04.2005
Offline
200
#6
Murdoc (msk):
первая проиндексированая статья является оригинальной! остальные дубли!

Нет. Сам Яндекс говорит, что это бред, потому что одни ресурсы переиндексируются раз две недели, другие 2 раза в день, так что этот вариант они отбросили, как изначально ложный.

vmegap
На сайте с 03.02.2002
Offline
158
#7
radist:
Допустим я написал статью поместил на сайт.
У меня эту статью спёрли и поместили на свои сайты, как поисковая система поймёт что я первый написал эту статью?
Это определяет человек или робот?

Роботы - никак. Если предполагается, что впоследствии придется доказывать Ваше авторство и приоритетность публикации в интернете, полезно в статью заранее при публикации внести поправки, которые воришка вынужденно скопирует - например в каком-то абзаце поменять все гласные "а", "о", "у" на буквы латинского алфавита. По крайней мере будет хоть что-то предъявить в качестве доказательства приоритетности :)

С уважением,

Виктор

SS
На сайте с 03.09.2004
Offline
141
#8

radist, у Александра Садовского три года назад было предложение добавить (специально для Яндекса) в html новый мета-тег вроде <original href="...">, который будет действовать так: если ссылка указывает не на ту страницу, в которой она содержится, значит, это дубликат.

В какой-то мере поддержал его мысль Александр Мельков, сотрудник поисковой системы Яндекс, но, идея не прижилась. Поразмыслив над этим определенное время, стало понятно почему. Буквально вчера писал об этом.

По сути вопроса - роботы никак не определят авторство, да и человеку будет нелегко.

«Клянусь своей жизнью и любовью к ней, что никогда не буду жить ради другого человека и никогда не попрошу и не заставлю другого человека жить ради меня» (с) Джон Галт
K
На сайте с 31.01.2001
Offline
737
#9

Роботы не могут этого сделать, да это и не является их задачей.

Можно применять разные способы, помогающие в некоторых случаях предъявить улики человеку, подтверждающие факт воровства. В некоторых случаях эти приемы заставят существующие алгоритмы поисковых систем поставить ваш сайт выше, но это совсем другой разговор.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
R
На сайте с 28.01.2006
Offline
95
#10

Понятно.

А если спёрта страница целиком, робот может их склеить?

Это же какая база должна быть, чтобы проверять все страницы.

Получается если ты спёр чужую страницу с сайта, то ты можешь её спокойно раскрутить.

Просто я тут на форуме слышал, что когда люди копируют текст, то они меняют 30% текста, зачем это надо всё равно робот не сможет ничего определить.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий