- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вообще-то невозможность составлять шаблоны, задавать сигнатуры кода - это огромный минус для любого парсера, кроме, разве что, узкозаточенных, которые парсят в определенные заранее структуры данных. Желание продать продолжает играть в майндфак со здравым смыслом 🍿
response Позволю себе с Вами не согласиться и даже могу поспорить, что написать парсер в котором пользователь будет ломать голову и задавать разные шаблоны и составлять регулярные выражения для поиска контента это куда проще чем сделать его универсальным который сам сможет определять основной контент на странице.
Даже если я сделаю в этом парсере возможность редактирования шаблонов то я думаю, что мало кто сможет разобраться в этом множестве функций, регулярных выражений и правельно его настроить.
Критиковать все умеют, а Вы ведь даже не видели результат работы этого парсера, но уже поспешили сделать свой вывод.
А для работы с шаблонами есть другие парсера например DesGrabber и множество ему подобных.
тут наверное надо разграничить:
1. получить кучу предложений для дора (парсим всё подряд, гугл всё съест)
2. получить нужный блок тектса и вставть его в типаСДЛ (точечная работа)
Топикстартер вроде для доров свой парсер делал. значит первый вариант.
Я так думаю!
Универсальность нужна новичкам. Адвансед юзеру нужно иметь возможность изменить шаблон парсинга. А то получается что программа сама решает какой текст брать (плагин телепатии?) и сама решает в какой файл и в каком формате его записать :)
Купил бы, если бы можно было сохранить в виде XML или в ДЛЕ экспорт, а так.... нафик надо.
ТС прикрутил к программе ZParserLite еще и синонимайзер сегодня купил и протестировал программу действительно программа очень простая и быстрая результат отличный,кроме того ТС приятный человек в общении и с ним всегда можно договориться
response Позволю себе с Вами не согласиться и даже могу поспорить, что написать парсер в котором пользователь будет ломать голову и задавать разные шаблоны и составлять регулярные выражения для поиска контента это куда проще чем сделать его универсальным который сам сможет определять основной контент на странице.
ну-ну. не заливайте программистам.
Даже если я сделаю в этом парсере возможность редактирования шаблонов то я думаю, что мало кто сможет разобраться в этом множестве функций, регулярных выражений и правельно его настроить.
не путайте гибкость настройки и отсутствие качественного дефолта.
Критиковать все умеют,
нет, не все.
а Вы ведь даже не видели результат работы этого парсера, но уже поспешили сделать свой вывод.
да мне без надобности на результаты глядеть. функционал лежит на поверхности, плюс ваше описание раскрывает подробности в полном объеме. Я немного в теме парсеров, так что проблем с анализом предметной области не возникает.
Про результаты парсинга я ничего не говорю, может они и есть, но не надо выдавать минусы за плюсы. Уважайте своих покупателей ;)
Парсер очень даже неплох. Ибо ситуация - искал себе парсер при наличии 2 парсеров! Ну не все устраивало в существующих, хоть убей...
Покупая Zparser, переживал что это будет очередная полумертвая в деле софтина.
Но вот юзаю уже больше недели - и доволен.
* Из плюсов - скорость, встроенная дергалка картинок, неплохая чистка текста (коды-теги практически не встречаются).
* Из минусов - нагрузка на комп (2 ядра Атлон, 2ГБ RAM) - больше 5 потоков ставить можно, но работать самому параллельно тогда неинтересно; чистка текста - нет-нет да и промелькнет не очень читабельный текстовик.
В плане очистки текста я бы даже предложил такую функцию автору - сделать возможность удаления строк менее N символов, ибо попадаются всякие тексты типа чисел, аббрревиатур, и т.п. - все с переводом строки после каждого значения. Удалять вручную нереально, заказывать отдельную софтину - нерационально. А вот функция такая была бы очень полезна.
А в целом - лучше пока ничего не видел, параметр "простота+функционал" - на высоте. Только развиваться желаю производителю... и его творению в частности ;)
Купил лайт версию недели две назад - очень нравится, хорошая софтинка.
Софтинка действительно отличная, при своем маленьком размере (LITE) парсит просто чудесно. Единственное что надо вычищать от мусора (я в textkit) всяческие левые статьи. Обычно решаеться более сложными запросами.
phpsin, как купить программу?