Тема по-прежнему актуальна.
Несколько предложений рассматриваются, но тема по-прежнему актуальна. Если есть предложения (в том числе более дорогие) - то готов рассмотреть.
Спасибо, все понятно стало, особенно после статьи http://www.internet-technologies.ru/articles/article_695.html
Форму заполнил.
А фуршет опять в Дубинине или что по-интереснее?
Валентин, за отзыв и рецензию бесплатно возьмешь? :)
Немного странная конференция, но можно сходить на Люстика и Ткачева, так как там всегда есть что послушать и что спросить конкретного.
А по Арбайтену странно было видеть инфу - зачем ему публичное выступление? Судя по цитате он еще и не зарабатывает на этом.
Возможно я не понял или в 2.0 есть доп. список (я не являюсь тестером и не видел то, что готово)
Давайте тут на примере. Ввожу в свой список:
слово1
слово2
слово3
слово4
слово5
Спарсил значения, удалил/переместил ненужное, осталось:
Нашел новые слова для кластера, хочу добавить только их, для этого стираю то, что в своем списке и добавляю в него:
слово6
слово7
В главном окне получил:
Теперь я хочу посмотреть какой у меня был изначальный свой список, какие слова я удалил/переместил. Как мне это сделать на данном этапе действий?
Что касается синхронизации - то мне она не нужна, мне как раз нужно чтобы хранились все варианты данных и к любым из них я мог вернуться.
Да, действительно продукт может получиться замечательный, несмотря на свою принципиальную простоту - никто еще таковой продукт для паблика не делал.
В идеале это древовидная структура где я могу не только хранить данные, но и да, перемещать их между разными папками. А-ля проводник, но в активном окне ключи и их полная статистика.
Сбор и хранение всех ключей под одним проектом ywp также позволит запускать парсинг сразу по всем ним. Сейчас для каждого проекта ywp это нужно отдельно, а сливать в один проект все ключи не вариант, к тому же экспорта в другие проекты нету и обратного импорта из csv.
Я даже не могу, как вариант, открыть отдельно кучу раз программу, так как тогда я наткнусь на такое же кол-во потоков.
Вкладки же нужны для открытия разных проектов, чтобы опять же не запускать программу несколько раз. И так я смогу просмотреть сразу несколько древовидных систем и сравнить их визуально/функционально.
Пример. Предположим есть проект с готовым большим ядром. Я копирую его и принудительно заново делаю весь парсинг спустя полгода. Затем запускаю сравнение между ними и вижу что изменилось по тем ключам, что я делал полгода назад. Идеалистически полезно будет, так как сейчас обычно делают ядра, а потом что-то поменять и отследить не хватает человеко-часов.
Так что вкладок то много не нужно будет.
Я пытаюсь понять адекватную нагрузку на 1 IP при безостановочном парсинге и чтобы это было недолго (стандартные паузы меня устраивают, уж за ночь то собрать успеет). А потом уже вопрос уткнется кол-во IP в зависимости от кол-ва проверяемых ключей, а это не проблема. Понятное дело, что антигейт страхует (кстати, по антигейту тоже нужно ввести проверку в 3 попытки и переход на другой IP, а то если антигейт не работает, то программа безостановочно долбится по нему)
Да, действительно можно и так вполне, но тогда во-первых это +1 действие, во вторых я теряю отображение исходного списка слов, который потом подвергся изменениям.
Удаленные слова из исходного списка не всегда именно "плохие" слова - это могут слова перешедшие в другой список. Потому исходный список важно сохранять в памяти программы.
Я немного не о том. У меня нет желания устраивать проверку в несколько потоков (и это действительно не нужно).
У меня есть желание по более удобной работе с программой в плане просмотра и хранения слов.
Мне бы хотелось открыть программу 1 раз и потом действовать из нее, а не открывать ее десятки раз через ярлык, если мое многотысячное ядро состоит из совсем разных кластеров, которые я для удобства разбил на разные проекты (файлы программы) и хочу просматривать одновременно.
Так что это или вкладки или в идеале древовидная структура.
Опять же это мои потребности - это может быть не всем нужно.
Если бы у меня были удовлетворительные результаты, я бы с радость поделился. :)
Но при стандартных паузах, что указанны в программе - бан происходит где то после пары сотен слов, при постоянной их проверке по всем 3-м частотам статистики Директа.
В то время как Александр на своем семинаре говорил, что паузы позволяют работать стабильно с программой при сборе и порядков в тысячи запросов.
Плюс мне кажется что рекомендации по наиболее удобной работе с программой позволят ее лучше продавать - так что это дело не только сугубо личное.
Если я изменил изначальный список слов, спарсил, а затем захотел к нему добавить еще слов - то при изменении текущего списка удаленные слова из изначального списка опять появятся - и это нарушает последовательный процесс, ведь мне пока не нужно их никуда копировать.
Поэтому нужна возможность изменять именно то, что уже обработано.
Вроде именно это отчасти имел ввиду Str256.
Далее, было бы здорово по выбранному списку иметь возможность спарсить новые значения и сравнить их с предыдущими. Это бывает полезно, когда есть колебания спроса, да и вообще это полезно для долгоиграющих проектов.
Еще вроде был поднят вопрос по поводу хранения ключей в программе.
На данный момент, так как в программе только 1 активное окно для ключей - приходится для каждого кластера создавать отдельный файл и для всех ключей Excel. В этом есть и свои плюсы, но возможно ли внедрение древовидной структуры внутри программы с хранением ключей по подпапкам?
Тогда можно действительно коллекционировать ключи и при том гораздо удобнее чем в Excel.
Этот вопрос отчасти поднимал error2k.
Если это видеться сугубо опциональным - могу изменения заказать.
Частично именно это реализовано в платной программе WordStat Parser.
Также к этой же теме относятся и вкладки в программе (вопрос поднимал xikarx), они решат вопрос открытия нескольких проектов в одной запущенной программе. А то сейчас приходится запускать программу вручную столько раз, сколько создано проектов.
Еще не помешали бы ваши рекомендации относительно настройки пауз. Не всегда и не во всех местах есть возможность использовать прокси, а спарсить хочется максимум (речь в первую очередь о уточняющих частотах).
И по самим прокси тоже интересно - сколько нужно IP, чтобы ни в чем себе не отказывать при парсинге десятков тысяч запросов в день, без длительных пауз. Или это к юни уже?
П.С. Александр, спасибо за программу (а также всем кто ему помогал как-либо).
Если то, что я написал как-то уже пересекается с версией 2.0 - извиняюсь и с нетерпением жду апдейт софта :)
Оплачено.
Все в последнюю минуту... успел надеюсь? )
Рад буду увидеть и пообщаться с теми, кого знаю и познакомиться с иными.