- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Для полей включений и исключений не хватает возможности отключить использование регулярок.
т.к иногда пингвин видит регулярки там где не надо, например в таком списке стоп-слов:
²
8½
h+
máj
maô
k-9
61*
x+y
jîn
x/y
&me
'71
f/x
süt
.45
11.6
mamá
l.dk
léon
café
k 11
cut!
lîle
arès
Понятно что можно экранировать, но список стоп слов огромный
Программа маст хейв.
Так, в копилку идей... Может реально такое сотворить - работа в папках.
Сейчас можно загрузить пачку файлов и к примеру убрать дубли и все сохранить в одном. А вот если б была возможность кучку папок так же загрузить и выбрать - собрать все текстовики в одно, или сохранить дерево папок и провести работу с файлами в папках и сохранить не изменяя названия папок
Мечты))))
Программа маст хейв.
Так, в копилку идей... Может реально такое сотворить - работа в папках.
Сейчас можно загрузить пачку файлов и к примеру убрать дубли и все сохранить в одном. А вот если б была возможность кучку папок так же загрузить и выбрать - собрать все текстовики в одно, или сохранить дерево папок и провести работу с файлами в папках и сохранить не изменяя названия папок
Мечты))))
Купил эту программу, закачал старые базы Пастухова (2013г). Все работает отлично и намного быстрее Кей коллектора, которым пользовался 5 лет. Самое главное преимущество и почему ее купил - это скорость работы и возможность обрабатывать гигансткие текстовые файлы. Подскажите где можно скачать бесплатно новые базы Пастухова?
п.с. Когда покупал Парсер дали 50% скидку на Пингвина :)
Парсером сделать подобное через wordstat
---------- Добавлено 10.03.2018 в 18:29 ----------
как прикрутить модуль морфологии?
---------- Добавлено 10.03.2018 в 18:30 ----------
как прикрутить модуль морфологии?
Импортирую фразы:
Нажимаю "найти неявные дубли с учетом морфологии", программа возвращает сообщение внизу "неявные дубли найдены", но список пуст. Только у меня так?
Также, при поиске неявных с учетом морфологии выдаёт дублями (хотя они не являются таковыми):
Крутая прога, давно пользуюсь) Всегда отлично справляется с большими объемами ключей! Так что рекомендую к покупке у кого ее еще нет :)
Мне тоже софт очень нравится, купил как-то давно со скидкой, сейчас активно пользуюсь. Плохо только то, что дубли из больших файлов не удалить, памяти на хватает, приходится другим софтом пользоваться.
Вышло обновление Penguin до версии 11.7. Изменения актуальны и для Standard, и для Premium версий. Внесены следующие изменения:
*************************************************************************************
Все идеи по доработкам, озвученные выше принял, в будущих обновлениях что-то из этого реализую. Если нужно что-то кому-то добавить срочно - пишите по контактам на сайте в аську, телеграм или скайп, при личном контакте я могу выделить время на обновление в срочном порядке и сделать их непосредственно под Вас и дам Вам на тест, чтобы убедиться, что все сделано корректно и так, как Вам нужно.
Плохо только то, что дубли из больших файлов не удалить, памяти на хватает, приходится другим софтом пользоваться.
А ткни пожалуйста носом, какой софт справляется с удалением дублей из файлов с большим количеством строк?
У меня примерно такой расклад... 4кк строк получается примерно 155к во всех программах, которые работают с дублями!
Приходится резать на мелкие куски, чистить на дубли, объединять и опять чистить ))
зы. Использую Penguin Premium Edition. Может это как то сделать можно проще? я не знаю!