- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Мне кажется научить распознавать размноженный текст - не так то уж и сложно. Для этого надо запустить процесс в обратном порядке. Правда это может вызвать значительную нагрузку на ресурсы, но все вышесказанное вполне осуществимо...
В том то вся и проблема, в ресурсах. Все познается в сравнении, т.е. чтобы вычислить, что 2 текста схожи, нужно их сравнить, но когда не знаешь с чем сравнивать, то и узнать есть ли копии данного текста или нет, возможно только если сравнивать весь интернет с исходным текстом. Короче, уж очень много ресурсов на это требуется, а если учесть, что паутина растет в разы, то угнаться на ней практически нереально, ну если только не создадут какой-нибудь супер-пупер компьютер, или что-нибудь в этом духе, но это все ой как далеко. Так что яндексу остается только пытаться фильтровать мусор, вот и получается, что порой, даже и копипаст прокатывает.
На мой взгляд, поводом для дополнительной проверки текстов на дубли будут ссылки, например, если на двух страницах присутствуют ссылки с одним и тем же урлом, и вдобавок одинаковым анкором, то это "палево" и весомый повод роботу яндекса, дополнительно проверить эти страницы на дубли. Но, если тексты между собой никак и ничем не связаны, то и шансы, что они попадут под зачистку минимальны. Так что насчет размноженного контента, как и многие, тоже считаю, что все зависит от того как размножать, и если планируется, что тексты между собой будут иметь хоть какую-то связь, то следить за качеством размножения, чтобы не попасть под разные фильтры. :)
Vergiliy, Вы генератором никогда не пользовались, а говорите. В курсе что к каждому слову все ручками подбирается, конструкция предложения, что на что меняется и как, генератор лишь комбинирует варианты, не более того. Кнопки "сегнерировать кучу статей" в генераторе нету. А кто говорит что генерирует машина, ну что тут сказать, теоретиков везде много, а толку.
Еще раз повторюсь, генератор, только комбинирует варианты, а построение, слова, конструкцию делает человек. Включите генератор да попробуйте в конце концов. Кнопочка побор синонимов или как ее там может встречаться, так ее можно забыть, это не генрация будет, а ...
234sha добавил 22.07.2009 в 10:49
А рерайт, блин, это не размноженный текст? 80% рерайта на форуме - хуже размноженного на сотню вариантов текста...
Вот-вот!
Генерируемые говностатьи разпознаются и исключаются из индекса. Лучше руками, но наверняка. :)
если это будет авто-расставление - да
а если всё делать в ручную...
по поводу генерации - всё что создаётся машинами, машинами же легко и вычисляется
интересно, машины сами эти фильтры придумывают? ;)
Что касается самого вопроса, я делаю процент схожести до 5, статей порядка 100 с одной, из размещения их на 100 сайтах - статей 40-60 попадает в индекс, которые постепенно исчезаю.
может Вы просто не умеете их готовить? ;)
А какие например это сайты?
А в лиексе недостойные сайты?
А какие например это сайты?
А в лиексе недостойные сайты?
А какие например это сайты?
А в лиексе недостойные сайты?
Достойный, недостойный - понятие растяжимое. Любой порносайт я не назвал бы достойным.
Но дело здесь немного в другом. Одни сайты делали для людей и развивают их, просто продажа ссылок или статей это еще один способ окупить труды, не хуже, на мой взгляд, чем размещать контекстную рекламу. Другие сайты склепали исключительно ради зарабатывания на ссылках или статьях, люди там не нужны.
Так вот в лиексе, как и любой другой бирже, есть и то и другое.
А какие например это сайты?
А в лиексе недостойные сайты?
Тут Вам надо изучить что такое кластер и посмотреть как происходит размещение статей в лиексе, можно сделать выводы затем. Лично я бы выбрал сапу- контекстные ссылки, но это мое мнение.