В нашем деле без того нельзя, чтобы паскудой не обозвали. (убейте, не помню, из кого цитата, а искать лень). :)
Все течет, все меняется. С недавних пор уже и Адвего использует корреляционные методы проверки уникальности ("процент возможного рерайта" - так это у них называется).
Может, может. :)
Понимать LSI можно многоуровнево:
- чисто как антиспам.
Либо "в тексте должны быть синонимы и склонения ключевиков", либо "+ключевики должны быть увязаны в правильно построенные фразы со словами из тематического корпуса".
- антиспам + более глубокая проверка тематики текста.
Весь текст должен в значительной мере состоять из слов тематического корпуса.
- по семантике машина пытается понять ЦА текста.
Ибо лексика при рассказе, скажем, о мобильном телефоне для разных читателей необходима всегда (почти) тематическая, но разная.
Специалисты спорят, на каком уровне сегодня мы (ПС) находимся.
Но направление развития LSI, полагаю, понятно.---------- Добавлено 20.09.2013 в 13:03 ----------
Их не так сложно увидеть, полагаю, многие присутствующие здесь к ним относятся. :)
Копирайтер, который изучил и раскрыл тему в грамотно написанном тексте, уже имеет право добавить себе эту приставку. В философском смысле он точно становится LSI-копирайтером. Если же сужать понятие, то тогда нужно говорить о важных технических мелочах, которые хорошо работают именно под сегодняшние алгоритмы поисковиков.
Если предположить, что "Гугл, Бинг, Яндекс и прочие" отчего-то интересует принцип "обязательно остаться поисковой системой в сегодняшнем понимании", то можно и не обсуждать.
Но, если предположить, что не меньше, чем принципы, их интересует бабло, то... именно это здесь и обсуждается.
По поводу технической уникальности текста:
1) ТС пишет о ней абстрактно. Каким шинглом, какой процент уникальности статьи получен?
2) Если генератор выдает статьи, скажем, с 5% уника, то это значит, что КОНКРЕТНАЯ статья совпадает с другой КОНКРЕТНОЙ статьей не более, чем на 5% при использовании заданного шингла. Т.е. при сравнении с 20 статьями технический уник уже может составить 0%.
3) Ничего не сказано о языковом, смысловом качестве результирующего текста. Упоминавшийся в ветке LSI-робот в первую очередь займется отлавливанием а) неправильно построенных фраз б) выявлением нетематичности текста (неподтверждением ключей остальными словами).
4) Корреляционные методы проверки уникальности сегодня используют не только Текст Ру, но и ряд других сервисов. Для проверки факта копирайтинга они более чем уместны, хотя далеко не факт, что рерайт всегда будет ими выявлен.
В контексте разговора о генерированных текстах на сегодня, ИМХО, использовать Текст Ру накладно и почти бессмысленно.
У меня нет сколько-нибудь точной информации, что Гугл или другие ПС корреляционные методы проверки уника используют. Абстрактные заявления оптимизаторов (типа "за плохой рерайт банили, не индексировали, перешел на проверку Текст Ру, стало лучше") в определенном числе имеются. Однако также факт, что если прогнать весь Рунет через Текст Ру, то забанить придется где-то 30-60% страниц. :) А мы этого не наблюдаем.
Моё личное ИМХО - ПС не вводят корреляционные алгоритмы из боязни обвалить рынок.
ПО другим аспектам:
1) Одномоментное размещение 100 сгенерированых статей на одном сайте - явный перебор по любой нормальной логике.
2) Не являюсь владельцем сайтов, не могу поделиться точной статистикой размещения генерированных текстов. Работаю с одним заказчиком, который двигает текстами из моих шаблонов весьма обширную сеть сателлитов из 4 тематических сегментов. Детали мне не известны. Конечно, индексируется не 100% страниц, конечно, в топ по ВЧ никто не вылез, тем более, что такой задачи и не ставилось. Но в целом сеть удовлетворительно индексируется и Г, и Я, живет и растет, свои задачи решает.
Оговорюсь - последние движения по генерации были 2-3 месяца назад. Может уже что-то поменялось, но никаких SOS от заказчика по прежним размещениям не получал.
Следование закону Ципфа (стремление "попасть" под него) в отдельном тексте скорее приведет к спаму, чем к созданию хорошего, оптимизированного материала (в современном понимании).
Как только пользователям форума удалось переформулировать неадекватно сформулированный Вами вопрос, появились и адекватные ответы.
:)
Насколько я понял, Вы имеете в виду, что text.ru показывает не копипаст, а источник рерайта. Для точности - это таки несколько разные вещи.
Недавно где-то видел конкурс на слоган для компании, строящей ВПП. Так и просилось что-то типа:
Взлетно-посадочные полосы от ХХХ столь хороши, что самолеты просто не хотят от них отрываться!
Частица "не" очень уместна.
ИМХО, "как правило" - перебор. Если над дескрипшин поработать, то можно ожидать, что во многих случаях... Как-то так. :)