- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Я можно сказать новичок в размножении статей. Есть 2.2млн. результатов статьи, как мне из всего этого выбрать около 500 статей максимально не похожих друг на друга? Потянет-ли какой-то софт такое количество?
Спасибо
откуда статьи взялись? если есть размноженные статьи, должен быть шаблон...
лучше сразу использовать нормальную программу, которая отсеивает статьи при генерации ;)
Я для подобных целей использовал Text Analyzer но такое количество файлов обрабатывать не приходилось...
Здравствуйте.
Я можно сказать новичок в размножении статей. Есть 2.2млн. результатов статьи, как мне из всего этого выбрать около 500 статей максимально не похожих друг на друга? Потянет-ли какой-то софт такое количество?
Спасибо
Узнайте для начала в какой программе размножались сами статьи, если есть статьи, то возможно и формула в придачу есть?;) Тогда можно будет легко отсеять лучшее, думаю что программа через которую размножалась статья поддерживает такую функцию)))
думаю что программа через которую размножалась статья поддерживает такую функцию
Да поддерживает... Seo Anchor Generator последней версии. Но как-то она слишком долго думает. И какую длину шингла ставить я не знаю. В результате 1-2 варианта получается и все. Хотя должно быть куда больше.
лучше сразу использовать нормальную программу, которая отсеивает статьи при генерации
Я такую программу и спрашиваю как раз, а не совета что все-таки лучше использовать такую программу)
Потянет-ли какой-то софт такое количество?
Вы не в сторону софта думайте, а в сторону производительности компьютера своего.
Но как-то она слишком долго думает.
Это не программа долго думает, а комп.
Вы представьте. Берется одна статья и начинает сравниваться с 2 199 999 статьями. Потом следующая... и т. д.
20 000 статей для отбора 500 за глаза будет.
Как вариант: разбейте все статьи на несколько пачек, каждую из которых проверьте на схожесть и выбирайте из них, скажем, 50 самых уникальных. В результате получится еще одна пачка статей, которые потом тоже закиньте на проверку и из них уже 500 выберите. Но что-то слишком много статей у Вас получилось :) Наверное, "последовательная" обработка стоит? Поставьте "вариационный взрыв" (или что-то в этом роде) и до 20 000 размножьте - этого вполне хватит.
Light Phantom, ну логически я в состоянии и сам думать, спасибо :) Вы мне лучше подскажите какая программа лучше всего для этого подходит, единственное что прошу. Или можно оставить ту-же?
Еще до написания поста сократил количество результатов после генерации до 120т., но все-равно чуть долговато получается. За компьютер тоже не переживайте, больше чем на 30% программа не грузит ни ЦП, ни оперативку
Сначала подумал, что Вы размножали платным SEO Generator'ом. Названия похожие - перепутал.
Я с первых дней, как начал размножать статьи, пользовался платным софтом: SEO Generator и Shingles Text Compare Pro (для отбора уникальных статей). Обе программы от одного и того же разработчика. Первая меня полностью устраивала принципом генерации, вторая - скоростью работы и выдаваемым отчетом. Конкретный софт бесплатный не посоветую, но на примере того же SEO AG'а рекомендовал бы поставить в настройках не последовательную генерацию (включена по умолчанию), а случайную и ограничить количество вариантов 20 000, к примеру. Шинг для начала можете 10 поставить. Если статей останется больше нужных Вам 500 - уменьшите длину шингла и так до тех пор пока 500 штук не останется.
Поставите случайную генерацию - получите сразу 20 000 статей, которые при последовательной генерации Вы получите только после нескольких проверок на схожесть.
Я такую программу и спрашиваю как раз
лично я пользуюсь "Knightword" ;)
Light Phantom, спасибо, ваши советы немного помогли, но все-равно как-то результатов мало при длине шингла - 10 и максимальной схожести - 65% Из 30т. результатов всего 30 статей, хотя синонимов предостаточно, причем не только отдельных слов, в основном словосочетаний.
Maximalist, спасибо, но для разовых операций не хочется покупать подобного рода софт.
шингла - 10 и максимальной схожести - 65%
Это у вас конечный вариант чтоли такой? Большая схожесть слишком...
Насчёт бесплатной программы для генерации - Article Clone Easy можно использовать.