mlu

Рейтинг
68
Регистрация
09.02.2008

ru-traff, архиватор уж больно похож на архиватор от зипкоина :) И проблемы с архивацией ровно такие же, какие были в архиваторе от вышеозначенной парнёрки :)

У меня следующая проблема: есть директория, в ней 200 директорий, у которых есть свои вложенные поддиректории. Нужно сделать из этих 200 директорий (со всеми потрохами) ровно 200 архивов, которые называются так же, как называется сама директория.

Я выбираю "упаковывать каждую папку в отдельном архиве", у меня зачем-то принудительно спрашивают имя архива (а какое оно будет, если каждая папка является отдельным архивом?), далее выбираю директорию, в которой находятся те самые 200 подготовленных для архивации директорий, после нажимаю на упаковку и архиватор создаёт 1 файл со всем содержимым этих 200 директорий.

А 200 как сделать? %) Зипкоин в своё время исправил это, надеюсь, что и вы исправите :)

Могу добавить в свой софт из подписи эту функцию :)

Не подскажете у кого какое ратио в среднем и на каком траффике? С 1 по 15 августа было 1:98, сейчас третий день уже больше 1000 открытий архива и 0 смс :(

Добавил на сайт с самой программой wiki с детальной информацией по ней (конфигурация программы, описание возможностей, описание параметров статистики, изменения в новых версиях, ссылки на скачивание и так далее):

http://cp.pluxy.com/wiki/index.php

Теперь тем, кому интересно потестить, достаточно скачать программу, распаковать, запустить и получить у меня ключ :)

Pilat:
Проблема, я так понимаю, в том что hetzner не любит на одной карте видеть много разных мас адресов?

Да, это так, было аналогично с VMware + bridged networking, но эта проблема вполне успешно решается через саппорт, они сами присваивают mac-адреса под варю из нужного диапазона

Nimor, если на страницах, то как раз тестируемая программа вместе с простеньким скриптиком на пхп/перле это может сделать очень быстро (многопоточно)

Нужно найти http://link.com среди многих страниц на каждом из 300 сайтов (т.е. обойти еще каждый сайт) или нужно найти http://link.com на 300 заранее заданных страницах (просто их скачать и убедиться, что там есть ссылка)?

spambot:
добрый день - стукнул в асю.

Надеюсь на Ваш отзыв по результатам тестирования :)

Xover:
Именно, софта хватает, но у вашего плюсом является большая скорость работы, многопоточность. Веб-сервисы этого не могут предоставить.

Всё именно на скорость, массовость, "неубиваемость" и бесплатность (относительно веб-сервисов) и рассчитано :)

Да, и еще :)

Программка немного обновилась:

* Появилась более детальная документация по конфигурации, с примерами и дополнениями :)

* Появился редактор конфигурации, в котором можно мышкой почти всё покрутить и настроить

* Улучшения в http-модуле, теперь можно указывать что конкретно нужно сохранять после скачивания урлов (ничего/заголовки/всё вместе)

* Появился встроенный http-сервер, который отдаёт только что проверенные и 100% рабочие списки прокси. Соответственно, появился режим работы в качестве программы, которая сама скачивает прокси-листы из разных источников, проверяет их и рабочие прокси даёт скачать по http-ссылке для своих нужд. Например, её можно запустить в фоне на своём VPS/VDS и забирать оттуда на работу/домой актуальные и всегда 100% рабочие прокси.

* Появился модуль проверки в Yahoo (бэклинки и кол-во проиндексированных страниц)

* Появился модуль проверки ключевых слов/фраз на количество результатов в поиске Google.

* Исправлены мелкие ошибки и недочёты :)

P.S. собирал недавно базы тиц и pr для 2 846 338 доменов 2 уровня в зоне .ru :) Может, кому-то нужны результаты? :)

Могу помочь со сбором, если еще не нашли готовое, ссылки в подписи

Если нужно регулярно проверять большое кол-во страниц на PR, то подойдёт софтинка из этой ссылки: /ru/forum/511667

Пока еще всё бесплатно, скрипт определения списка внутренних с меня в подарок 8)

Всего: 316