toboom

toboom
Рейтинг
58
Регистрация
14.05.2013
Starting:
Мне почему-то кажется, что большая часть относится все-таки к самым простым рерайтерам )

В нашем деле без того нельзя, чтобы паскудой не обозвали. (убейте, не помню, из кого цитата, а искать лень). :)

SimoN_NSK:
О_О как человек, использующий advego уже несколько лет - никакой рерайт он не палит. Можно сделать 95-100%-ю уникальность текста в 1000 символов за 10 минут, без нарушения читаемости. Прога, конечно, глючная, но удобная.

Все течет, все меняется. С недавних пор уже и Адвего использует корреляционные методы проверки уникальности ("процент возможного рерайта" - так это у них называется).

Бардо:
пришлось пользоваться поиском. Ну это не совсем так. Как я понял, скрытое индексирование подразумевает использование слов, по смыслу часто окружающих "ключевик". В моём случае в текстах и ключевых хватает за глаза. Хотя и сопутствующих понятий тоже. Хотя, впрочем, неважно. Может быть.

Может, может. :)

Понимать LSI можно многоуровнево:

- чисто как антиспам.

Либо "в тексте должны быть синонимы и склонения ключевиков", либо "+ключевики должны быть увязаны в правильно построенные фразы со словами из тематического корпуса".

- антиспам + более глубокая проверка тематики текста.

Весь текст должен в значительной мере состоять из слов тематического корпуса.

- по семантике машина пытается понять ЦА текста.

Ибо лексика при рассказе, скажем, о мобильном телефоне для разных читателей необходима всегда (почти) тематическая, но разная.

Специалисты спорят, на каком уровне сегодня мы (ПС) находимся.

Но направление развития LSI, полагаю, понятно.

---------- Добавлено 20.09.2013 в 13:03 ----------

Vasdimm:
Благодарю за консультацию, еще не видел LSI-копирайтеров,
видно это что-то новое и экзотичное.

Их не так сложно увидеть, полагаю, многие присутствующие здесь к ним относятся. :)

Копирайтер, который изучил и раскрыл тему в грамотно написанном тексте, уже имеет право добавить себе эту приставку. В философском смысле он точно становится LSI-копирайтером. Если же сужать понятие, то тогда нужно говорить о важных технических мелочах, которые хорошо работают именно под сегодняшние алгоритмы поисковиков.

Maxoo:
если вся информация будет сосредоточена на нескольких сайтах и только они будут в выдаче, то нужда в поисковых системах отпадет как таковая. Вы думаете такие монстры как Гугл, Бинг, Яндекс и прочие допустят такого развития событий и существенного сокращения своих прибылей? Не вижу смысла даже обсуждать эту тему.

Если предположить, что "Гугл, Бинг, Яндекс и прочие" отчего-то интересует принцип "обязательно остаться поисковой системой в сегодняшнем понимании", то можно и не обсуждать.

Но, если предположить, что не меньше, чем принципы, их интересует бабло, то... именно это здесь и обсуждается.

По поводу технической уникальности текста:

1) ТС пишет о ней абстрактно. Каким шинглом, какой процент уникальности статьи получен?

2) Если генератор выдает статьи, скажем, с 5% уника, то это значит, что КОНКРЕТНАЯ статья совпадает с другой КОНКРЕТНОЙ статьей не более, чем на 5% при использовании заданного шингла. Т.е. при сравнении с 20 статьями технический уник уже может составить 0%.

3) Ничего не сказано о языковом, смысловом качестве результирующего текста. Упоминавшийся в ветке LSI-робот в первую очередь займется отлавливанием а) неправильно построенных фраз б) выявлением нетематичности текста (неподтверждением ключей остальными словами).

4) Корреляционные методы проверки уникальности сегодня используют не только Текст Ру, но и ряд других сервисов. Для проверки факта копирайтинга они более чем уместны, хотя далеко не факт, что рерайт всегда будет ими выявлен.

В контексте разговора о генерированных текстах на сегодня, ИМХО, использовать Текст Ру накладно и почти бессмысленно.

У меня нет сколько-нибудь точной информации, что Гугл или другие ПС корреляционные методы проверки уника используют. Абстрактные заявления оптимизаторов (типа "за плохой рерайт банили, не индексировали, перешел на проверку Текст Ру, стало лучше") в определенном числе имеются. Однако также факт, что если прогнать весь Рунет через Текст Ру, то забанить придется где-то 30-60% страниц. :) А мы этого не наблюдаем.

Моё личное ИМХО - ПС не вводят корреляционные алгоритмы из боязни обвалить рынок.

ПО другим аспектам:

1) Одномоментное размещение 100 сгенерированых статей на одном сайте - явный перебор по любой нормальной логике.

2) Не являюсь владельцем сайтов, не могу поделиться точной статистикой размещения генерированных текстов. Работаю с одним заказчиком, который двигает текстами из моих шаблонов весьма обширную сеть сателлитов из 4 тематических сегментов. Детали мне не известны. Конечно, индексируется не 100% страниц, конечно, в топ по ВЧ никто не вылез, тем более, что такой задачи и не ставилось. Но в целом сеть удовлетворительно индексируется и Г, и Я, живет и растет, свои задачи решает.

Оговорюсь - последние движения по генерации были 2-3 месяца назад. Может уже что-то поменялось, но никаких SOS от заказчика по прежним размещениям не получал.

samimages:

А переспам это ближе к Ципфу и его лингвистическим опытам.

Следование закону Ципфа (стремление "попасть" под него) в отдельном тексте скорее приведет к спаму, чем к созданию хорошего, оптимизированного материала (в современном понимании).

-= Serafim =-:
dlyanachalas, спасибо, первый адекватный ответ в теме.

Как только пользователям форума удалось переформулировать неадекватно сформулированный Вами вопрос, появились и адекватные ответы.

:)

Geronimo11:
Проверяю text.ru. Показывает копипаст там, где ни адвего ни etxt определить не могут.. Бывают конечно глюки иногда, но все же мне кажется этот сервис лучше работат.

Насколько я понял, Вы имеете в виду, что text.ru показывает не копипаст, а источник рерайта. Для точности - это таки несколько разные вещи.

Бардо:

Наш пылесос никогда не ломается. Как и наши продавщицы.:)

Недавно где-то видел конкурс на слоган для компании, строящей ВПП. Так и просилось что-то типа:

Взлетно-посадочные полосы от ХХХ столь хороши, что самолеты просто не хотят от них отрываться!

Частица "не" очень уместна.

Megaindex_PM:

Как правило, в сниппет выводится содержание дескрипшина, но не всегда.

ИМХО, "как правило" - перебор. Если над дескрипшин поработать, то можно ожидать, что во многих случаях... Как-то так. :)

Всего: 85