Яндекс внедряет новый алгоритм удаления дублей

[Удален]
#21
думаю:
у меня всё на месте ) Или до меня не дошло или пронесло :)

Просто не дошло ещё) Или всё у вас гуд)

HruPifPaf:
Если бы яндекс всерьез взялся за дубли, то уменьшилось бы на 50% количество страниц, а не на 3 как сейчас.

Вообще что такое 3%??? Избавились от откровенного Г..на. всем на пользу только

Не всё сразу.. и до них очередь дойдет..

leoseo
На сайте с 17.12.2006
Offline
444
#22

Мда... Сайты с неуникальным контентом повылетали и думаю ещё будут вылетать из индекса. :( С одной стороны хорошо, что Яндекс станет чище, с другой стороны могут и по ошибке забанить и СДЛ, с уникальным контентом, если такой контент уже будет повторяться на других сайтах, а Яндекс не сможет правильно определить где первичный контент , а где скопированный. Уже такие случаи есть, 5 марта выпало немало сайтов с уникальным контентом.

Не подпускайте близко людей, у которых всегда всё очень плохо. Это, скорее всего, не лечится и скорее всего заразно.
Neo79
На сайте с 17.08.2007
Offline
135
#23
думаю:
у меня всё на месте ) Или до меня не дошло или пронесло :)

Или все СДЛ:)

Куплю сайты спортивной тематики (http://seo-sport.ru/form.php) Продаю базы url сайтов из ЯК, DMOZ, Mail (/ru/forum/586087) Размещения статей на старых СДЛ (/ru/forum/715803)
Евгений Иванов
На сайте с 26.07.2006
Offline
272
#24

Или внатури рерайт не плохой :) Даже miratools не чего не палит )))

думаю добавил 08.03.2009 в 19:45

Neo79, да + 1 :) miratools то же самое грит )

Wap.Click / Вап.Клик / Я - рядом!
Neo79
На сайте с 17.08.2007
Offline
135
#25
leoseo:
Уже такие случаи есть, 5 марта выпало немало сайтов с уникальным контентом.

Тогда к Платону пишете, вернет

-S
На сайте с 10.12.2006
Offline
Модератор1355
#26
gasymov:
Ну думаю Яндексы не пропустят алгоритм для определения первоисточника.. Что-нибудт да придумают

Не так давно написал в суппорт по поводу воровства контента и верного определения первоисточника, получил такой ответ:

Здравствуйте, Станислав!

Мы сейчас работаем над алгоритмами, которые будут способны отличать текст
источника от плагиата.
Пожалуйста, приведите примеры сайтов с подобными проблемами, мы обязательно
разберемся. Кроме того, Ваши примеры будут переданы специалистам для работы
над алгоритмами.
[Удален]
#27
-= Serafim =-:
Не так давно написал в суппорт по поводу воровства контента и верного определения первоисточника, получил такой ответ:

А источники посылали свои?

Интересно, что же всё таки из этого выйдет :)

Евгений Иванов
На сайте с 26.07.2006
Offline
272
#28

-= Serafim =-, по моеому ответ такой давненько уже, и дела не двигаються, даже новостей по этому поводу нет, да что там новостей, даже упоминаний об этом... Собственно что Райцин ( MiRaj ) и говорит... Собственно для чего свой сервис и решил в паблик пустить....

Maxiz
На сайте с 04.01.2008
Offline
208
#29

Насчёт алгоритма определния дублей:

Яндекс делает поиск для обычных пользователей, а не для оптимизаторов, а обычному пользователю пофиг - кто у кого конент своровал). Так что я думаю конечно какая то система определения первоисточника есть, но он так, для "приличия"

SaleSeo
На сайте с 26.07.2007
Offline
352
#30

Чувствовалось что Яша что-то готовит....новые запросы стали продвигаться долго...новые странички индексироваться медленней.

При тесте новшества полетят головы....и нормальных сайтов.

Есть сайты, которые создают люди с небольшим опытом..но они очень интересные и не несут назначения г...сателлита.

Кривые просто, вот они могут и пострадать..

А вообще...меры должны были приниматься, такой размах сейчас...что робот просто не справляется...и страдают полезные для юзера сайты.

Прогон BULLET для крауд,PNB,зеркал,доров https://bootmasterru.com/postingbyxrumer.html | Честное SEO,настройка Я Директ,семантика и оптимизация под ключ https://saleseo.ru :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий