mastserg

mastserg
Рейтинг
108
Регистрация
14.04.2005
Интересы
хорошо жить
undercover:
Подскажите ещё, пожалуйста,
а если использовать onclick, поисковик не перейдёт по такой ссылке ?
а если так, то её он и не прочитает ?
верно ?

не перейдет.

те кто в плюсе те молчат, дабы не слазить :)

_wind_:
Элементарно. Автор в сервисе регистрирует новый пост и ему выдается GUID - идентификатор будущего поста. Далее он публикует информацию, система проверяет GUID и записывает соответствие: такой то GUID, пост на такой то странице, от такого-то автора в такое-то время. 🚬

А у оригинального поста время обновления картинки-счетчика самое старое, я же писал :-)

перечитай это сам еще раз и найди как минимум 3 причины почему так не делают.

MoMM:
ПС - зеркала инета, а не его поводыри.
Сегодня "борьба за чистоту контента", а завтра борьба с загрязнением воздуха?
Социальную ответственность бизнеса конечно никто не отменял. Но ответственность есть там, где общественная проблема прмо проецируется на бизнес - детское порно, наркомания и т.п. - наличие таких сайтов в выдаче угроза общественной морали и безопасности. В то же время наличие дублей в выдаче с точки зрения общества опасности не предсталяет.

Юзеру же всё равно - читает ли он нужную инфу в дубле или в оригинале. Поэтому ПС реагируют на дубли совсем с другой стороны - отсутствие борьбы с дублями = поощрение неадекватов плодить дубли - и приводит к неоправданному повышением качества поиска удорожанием основных средств для индексации ростущего объема документов (не информации!).

Вот потому ПС вано давить дубли вообще, а не давить дубли и поощрять авторов.

а я про что писал - та же мысль только слова другие

улучшается выдача -> ПС приобретает новых юзеров -> растет доход ПС от контекста и т.д.

Гугл именно таким образом алтависту задавил - более чистым и адекватным поиском.

_wind_:
100%, если ОН ПЕРВЫМ ПОДПИСАЛ свой контент.

глупость!

2 человека подписывают один и тот же текст.

вопрос - как определить кто из них автор?

с помощью скрипта-ретранслятора контент возможно таскать в режиме реального времени.

_wind_

читаем выше и внимательно: ГДЕ ГАРАНТИИ того,

что текст автора проиндексируется первым?

что текст принадлежит именно тому автору?

зачем ПС официально брать на себя ответственность?

если бы все было так просто то, Яндекс и Гугл уже за пивом бы генераторам таких идей бегали :)

То MoMM

ПС заинтересованы в решении - улучшается выдача, уникальные контент начинает "рулить", однако нет пока возможности решить это. Гугл уже года три как пытается решить проблему дубликат-контента.

ни дата индексации, ни дата последнего изменения, ни даже "трастовость" не могут быть параметрами однозначно определяющими первоисточник.

Поэтому что ПС должны хранить в архивах?

этим они только пытаются замаскировать свою неспособность (может их разработчикам мозгов нехватает...) определять первоисточник.

Предложите реальное решение проблемы и ПС станут в очередь к вам умоляя работать на них, и коль решения нет, то что тут можно обсуждать? воздух в пустую сотрясать?

P.S. как пытаться защитить контент уже не раз обсуждались, на этой неделе только 2 раза тему подымали.

почитай это

20 в день я привел в качестве примера :)

размещал несколько раз.

порадовало - размещенные статьи хорошо отработали!

Всего: 572