Бесплатный многопоточный парсер WebArchive в виде плагина для CheckParams

L0
На сайте с 07.03.2008
Offline
88
#91

Я до сих пор юзаю версию грабера 1.02, потому что более новые выдают хэши для хостинга, а мне надо все сайты сначала загонять в Зеброид и колдовать над ними там. Но может, я чего-то не знаю, и имеется способ выдачу в хэшах тоже загнать в Зеброид?

Спасибо.

SEO домены (https://domainsrforever.com/)
Subudayj
На сайте с 24.06.2008
Offline
67
#92
Leo05:
Я до сих пор юзаю версию грабера 1.02, потому что более новые выдают хэши для хостинга, а мне надо все сайты сначала загонять в Зеброид и колдовать над ними там. Но может, я чего-то не знаю, и имеется способ выдачу в хэшах тоже загнать в Зеброид?
Спасибо.

Добрый день. Планирую переделать механизм сохранения страниц (уход от хэшей в пользу более-менее похожих на оригинальные урлы). Также есть желание сделать некий сборщик полной копии за указанную дату, чтобы вручную не собирать данные из разных папок.

У кого-нибудь есть мысли на эту тему, как лучше реализовать?

Quo vadis?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий