- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Перестало скачивать файлы, вот лог
Временно исправить эту ошибку можно уже сейчас, перезапустив CheckParams. Постараюсь выложить исправленную версию граббера в ближайшее время.
Продайте им лицензию Checkparams - пущай покупают, и ответы на вопросы получают !
Kost Troll, похоже, что Вы уже заработали существенные скидки на продление лицензии ЧП :)
Перестало скачивать файлы, вот лог
Обновите скрипт граббера до версии 1.05 и CheckParams до версии 1.295, ошибка исправлена.
Для обновления достаточно заменить из дистрибутивов checkparams.exe и файлик script-wa-grabber-iface.js
Kost Troll, похоже, что Вы уже заработали существенные скидки на продление лицензии ЧП :)
Похоже, что он правила не читает, ничего у него не выйдет :))
Subudayj, а есть образец восстановленного сайта? Можно в ЛС.
Всем привет.
На выходных планирую выложить обновление граббера. Будут сохраняться редиректы, и исправлены найденные ошибки.
Subudayj, а есть образец восстановленного сайта? Можно в ЛС.
Отправил.
Добрый вечер, вышла очередная версия граббера веб-архива - 1.06. Исправлено несколько ошибок, в некоторых случаях приводящих к скачиванию не всех версий сохраненных страниц.
Как всегда, последнюю версию можно скачать здесь.
Всем доброго времени суток, я автор онлайн-сервиса Robo.Tools, который предназначен для восстановления сайтов из WebArchive.
Я бы не хотел влезать в чужую тему, но недавно мне пришел любопытный комментарий в блог, в котором было сказано, что "скрипт для CheckParams гораздо лучше восстанавливает сайты чем ваш сервис" и теперь меня целиком съедает любопытство.
К делу: ищу человека, пользователя CheckParams, которому будет интересно сравнить два продукта (пополнение баланса в Robo.Tools - сколько нужно и бесплатно). (Пишите в ЛС)
Делается все это из чистого любопытства и энтузиазма, и желания улучшать сервис.
PS. Надеюсь, я не слишком нарушаю личное пространство автора темы - скрипт для checkparams, кажется, некоммерческий.
Если что, извините.
k0xa, вы же не будете против, если я в вашем топике про WA напишу про свой скрипт, который "лучше, быстрее и, главное, дешевле"? :)
P.S. Если вам интересно, то никто не мешает самостоятельно сравнить оба продукта.
Всем доброго времени суток, я автор онлайн-сервиса Robo.Tools, который предназначен для восстановления сайтов из WebArchive.
Я бы не хотел влезать в чужую тему, но недавно мне пришел любопытный комментарий в блог, в котором было сказано, что "скрипт для CheckParams гораздо лучше восстанавливает сайты чем ваш сервис" и теперь меня целиком съедает любопытство.
К делу: ищу человека, пользователя CheckParams, которому будет интересно сравнить два продукта (пополнение баланса в Robo.Tools - сколько нужно и бесплатно). (Пишите в ЛС)
Делается все это из чистого любопытства и энтузиазма, и желания улучшать сервис.
PS. Надеюсь, я не слишком нарушаю личное пространство автора темы - скрипт для checkparams, кажется, некоммерческий.
Если что, извините.
Ну так попросите любого реффа из вашего треда, повысите ему на всякий процент выплат с каждого реффа, да и еще дайте перманентный инвайт-линк, чтобы вставить в статью, и он напишет самый честный, справедливый и не затуманенный алчными желаниями обзор-сравнения двух продуктов.
ТС. Либо я что то не так настраиваю либо хз.
После парсинга :
1. Нет картинок, он их вообще не скачивает а обращается за ними к сайту оригиналу.
2. Внутренние урлы он так же проставляет те которые у родного сайта.
Где собака порылась ?
ТС. Либо я что то не так настраиваю либо хз.
После парсинга :
1. Нет картинок, он их вообще не скачивает а обращается за ними к сайту оригиналу.
2. Внутренние урлы он так же проставляет те которые у родного сайта.
Где собака порылась ?
Добрый день. Версия парсера самая последняя? Если да, то киньте урл сайта в личку - посмотрю в чем может быть дело.