Покажите пациента. Иначе это некий экстрасенсорный клуб в топике поулчается.
Да ладно? 50 доменов зарегистрированных в течение полу года, на всех копипаст, без всякой уникализации, все домены в индексе (50+ страниц) за исключением пары-тройки, да и то, там чую хостер виноват, т.к. грешил запретом подсети IP роботов Яндекса.
P.S. В гугле не все так радужно, но и не плохо в то же время.
Да, div в вашем посте не заметил. ;)
А инфа да... обычно попытка что-то узнать ограничивается фразой "сами экспериментируйте". :D
А ul, li, div, nav и т.д. нет?
P.S. Откуда инфа?
Слегка сделаю оффтоп.
Интересен результат следующего эксперимента.
Допустим мы имеем некий текст, новость, она раскопипащена на 100500 новостных сайтах. 1 в 1 (ну, с минимальными отклонениями). Но только визуально она выглядит 1 в 1, а в коде все иначе.
К примеру:
На некоторых сайтах абзацы в <p>
На некоторых сайтах абзацы разделены <br /><br />
На некоторых вовсе разделение происходит при помощи <span style="margin-bottom: 20px">
Т.е. к чему я веду. На всех сайтах одна и та же статья (текст), вот только машинный код отличается, верней, даже, текст статьи + код = уникальный.
Как в этом случае "алгоритмы" разруливают ситуацию? Убирает все теги и смотрит совпадения слов/орфографии/запятых/предложений?
Как бы фильтровали? Ручками?
Делайте свой сайт, в первую очередь, для посетителей.
Работник яндекса, прекрасная толстушка, в рабочее время решила зарегаться на НЕ вашем форуме? почему нет :)
А какие цели вы преследуете добиваясь любого процента уникальности текста?
Это вам в раздел для веб-мастеров.