ru-traff, архиватор уж больно похож на архиватор от зипкоина :) И проблемы с архивацией ровно такие же, какие были в архиваторе от вышеозначенной парнёрки :)
У меня следующая проблема: есть директория, в ней 200 директорий, у которых есть свои вложенные поддиректории. Нужно сделать из этих 200 директорий (со всеми потрохами) ровно 200 архивов, которые называются так же, как называется сама директория.
Я выбираю "упаковывать каждую папку в отдельном архиве", у меня зачем-то принудительно спрашивают имя архива (а какое оно будет, если каждая папка является отдельным архивом?), далее выбираю директорию, в которой находятся те самые 200 подготовленных для архивации директорий, после нажимаю на упаковку и архиватор создаёт 1 файл со всем содержимым этих 200 директорий.
А 200 как сделать? %) Зипкоин в своё время исправил это, надеюсь, что и вы исправите :)
Могу добавить в свой софт из подписи эту функцию :)
Не подскажете у кого какое ратио в среднем и на каком траффике? С 1 по 15 августа было 1:98, сейчас третий день уже больше 1000 открытий архива и 0 смс :(
Добавил на сайт с самой программой wiki с детальной информацией по ней (конфигурация программы, описание возможностей, описание параметров статистики, изменения в новых версиях, ссылки на скачивание и так далее):
http://cp.pluxy.com/wiki/index.php
Теперь тем, кому интересно потестить, достаточно скачать программу, распаковать, запустить и получить у меня ключ :)
Да, это так, было аналогично с VMware + bridged networking, но эта проблема вполне успешно решается через саппорт, они сами присваивают mac-адреса под варю из нужного диапазона
Nimor, если на страницах, то как раз тестируемая программа вместе с простеньким скриптиком на пхп/перле это может сделать очень быстро (многопоточно)
Нужно найти http://link.com среди многих страниц на каждом из 300 сайтов (т.е. обойти еще каждый сайт) или нужно найти http://link.com на 300 заранее заданных страницах (просто их скачать и убедиться, что там есть ссылка)?
Надеюсь на Ваш отзыв по результатам тестирования :)
Всё именно на скорость, массовость, "неубиваемость" и бесплатность (относительно веб-сервисов) и рассчитано :)
Да, и еще :)
Программка немного обновилась:
* Появилась более детальная документация по конфигурации, с примерами и дополнениями :)
* Появился редактор конфигурации, в котором можно мышкой почти всё покрутить и настроить
* Улучшения в http-модуле, теперь можно указывать что конкретно нужно сохранять после скачивания урлов (ничего/заголовки/всё вместе)
* Появился встроенный http-сервер, который отдаёт только что проверенные и 100% рабочие списки прокси. Соответственно, появился режим работы в качестве программы, которая сама скачивает прокси-листы из разных источников, проверяет их и рабочие прокси даёт скачать по http-ссылке для своих нужд. Например, её можно запустить в фоне на своём VPS/VDS и забирать оттуда на работу/домой актуальные и всегда 100% рабочие прокси.
* Появился модуль проверки в Yahoo (бэклинки и кол-во проиндексированных страниц)
* Появился модуль проверки ключевых слов/фраз на количество результатов в поиске Google.
* Исправлены мелкие ошибки и недочёты :)
P.S. собирал недавно базы тиц и pr для 2 846 338 доменов 2 уровня в зоне .ru :) Может, кому-то нужны результаты? :)
Могу помочь со сбором, если еще не нашли готовое, ссылки в подписи
Если нужно регулярно проверять большое кол-во страниц на PR, то подойдёт софтинка из этой ссылки: /ru/forum/511667
Пока еще всё бесплатно, скрипт определения списка внутренних с меня в подарок 8)