Да. В логе в каждой папке с годом указаны названия сохраняемых файлов - их можно потом как угодно править.
Указан в readme, "Координаты для связи:" :)))
Нужно скопировать с сохранением структуры директорий :) Напишите в ICQ, попробую помочь.
Вы readme.txt читали? Скопируйте сначала файлы из всех остальных папок, а потом уже из папки с предпочтительным для вас годом копии.
Если это действие не поможет, то прошу прислать сайт в личку.
Это MD5-хэши от имен файлов. Скопируйте эти файлы на хостинг - все заработает.
Пока выплаты не было.
Добрый день. Версия парсера самая последняя? Если да, то киньте урл сайта в личку - посмотрю в чем может быть дело.
Всем доброго времени суток, я автор бесплатного модуля граббера вебархива для CheckParams, который предназначен для восстановления сайтов из WebArchive.
Я бы не хотел влезать в чужую тему, но недавно в мой топик пришел любопытный комментарий, в котором было сказано, что "скрипт для CheckParams гораздо лучше восстанавливает сайты чем ваш сервис" и теперь меня целиком съедает любопытство, так ли это на самом деле.
Если кто-то из пользователй Robo.Tools также работает с CheckParams, то прошу провести их сравнение. Делается все это из чистого любопытства и энтузиазма, и желания улучшать модуль граббера вебархива.
P.S. Надеюсь, я не слишком нарушаю личное пространство автора темы - скрипт для CheckParams, кажется, некоммерческий, многопоточный, очень быстрый, и имеет открытый исходный код.
P.P.S. Если что, извините.
k0xa, вы же не будете против, если я в вашем топике про WA напишу про свой скрипт, который "лучше, быстрее и, главное, дешевле"? :)
P.S. Если вам интересно, то никто не мешает самостоятельно сравнить оба продукта.
seomoz, он самый.