archivarix

Рейтинг
31
Регистрация
16.08.2017
А в чём заключается "уязвимость" можно узнать? Кто-то сканирует сайты, чтобы узнать какие из них восстановлены через Archivarix и делает это довольно глупо даже не понимая как CMS работает.
Файл CMS вы можете переименовать как угодно. Более того, даже CMS при установке предлагает переименовать себя на рандомное название.
С пятницы 27.11.2020 до понедельника 30.11.2020 действуют два жирных купона. Каждый из них даёт бонус на баланс в виде 20% или 50% от суммы вашего последнего или нового платежа.

BLACKFRIDAY50

добавит на баланс 50% от суммы последнего зачисленного платежа. К примеру, если ваше последнее пополнение баланса было на сумму 120$, то просто активировав этот купон, вы получите 60$ в подарок. Купон действует как на ранее совершенные пополнения, так и на новые. Для использования купона, минимальная сумма у платежа должна быть 50$.

BLACKFRIDAY20

Как и купон выше, этот даёт бесплатные 20% от суммы вашего последнего зачисленного платежа, если тот был или будет более 20$.

Каждый купон можно использовать только один раз в рамках одного аккаунта. Возможно использовать оба купона на разные платежи. Вы можете сделать пополнение на необходимую сумму и воспользоваться понравившимся купоном. Акция действует до начала понедельника, 30го ноября. Активировать купоны можно в личном кабинете в разделе Платежи. https://archivarix.com/ru/account/paid/

В начале следующей недели будут ещё важные новости. Чтобы их не пропустить, подписывайтесь на наш канал в Telegram @Archivarix. А если у вас есть технические вопросы, идеи или фича-реквесты, мы всегда рады общению через @ArchivarixSupport.

В последних обновлениях добавили поддержку установок сайтов из командной строки на сервере. Теперь работу с разворачиванием сайтов на сервер можно полностью автоматизировать.

Вот более полный список изменений:

Полный список изменений:
- Поддержка интерфейса командной строки для развёртывания веб-сайтов прямо из командной строки, импорта, настроек, статистики, очистки истории и обновления системы.
- Поддержка зашифрованных паролей password_hash(), которые можно использовать в CLI.
- Экспертный режим для включения дополнительной отладочной информации, экспериментальных инструментов и прямых ссылок на сохранённые снимки WebArchive.
- Инструменты для неработающих внутренних изображений и ссылок теперь могут возвращать список всех отсутствующих URL-адресов вместо удаления.
- Инструмент импорта показывает повреждённые / неполные zip-файлы, которые можно удалить.
- Улучшена поддержка файлов cookie, чтобы соответствовать требованиям современных браузеров.
- Настройка выбора редактора по умолчанию для HTML-страниц (визуальный редактор или код).
- Вкладка «Изменения», показывающая различия текста, по умолчанию отключена, может быть включена в настройках.
- Откатиться к конкретному изменению можно во вкладке «Изменения».
- Исправлен URL-адрес карты сайта XML для веб-сайтов, построенных с субдоменом www.
- Исправлено удаление временных файлов, которые были созданы в процессе установки / импорта.
- Более быстрая очистка истории.
- Удалены неиспользуемые фразы локализации.
- Переключение языка на экране входа в систему.
- Обновлены внешние пакеты до самых последних версий.
- Оптимизировано использование памяти для расчёта текстовых различий на вкладке «Изменения».
- Улучшена поддержка старых версий расширения php-dom.
- Экспериментальный инструмент для исправления размеров файлов в базе данных, если вы редактировали файлы непосредственно на сервере.
- Экспериментальный и очень сырой инструмент экспорта flat-file версии.
- Экспериментальная поддержка открытого ключа для будущих функций API.
- Полная локализация Archivarix CMS на 13 языков (Английский, Испанский, Итальянский, Немецкий, Французский, Португальский, Польский, Турецкий, Японский, Китайский, Русский, Украинский, Белорусский).
- Экспорт всех текущих данных сайта в отдельный zip архив для сохранения резервной копии или переноса на другой сайт.
- Показ и удаления битых zip архивов в инструментах импорта.
- Проверка версии PHP и определение веб-серверов на NGINX + PHP-FPM при установке.
- В поиске при включённом режиме эксперта отображается дата/время страницы и ссылка на её копию в ВебАрхив.
- Улучшения пользовательского интерфейса.

И уже работаем над новой версией с новыми возможностями. Если кто на уровне носителя владеет языком, которого нет среди переведенных, то приглашаем стать нашим переводчиком.

В ближайшее время наша команда планирует запустить уникальный сервис https://archivarix.net/ru/ , сочетающий в себе возможности системы Веб Архива (archive.org) и поисковой системы.
Мы планируем проиндексировать главные страницы всех сайтов, которые когда либо были сохранены Веб Архивом. В нашей базе сайтов будет так же присутствовать архив различных метрик, таких как Alexa, Ahrefs, Majestic, ключевые слова, WHOIS домена и прочие исторические данные за все время существования сайта. Таким образом можно будет осуществлять поиск нужного сайта для восстановления дропов или для извлечения удалённого контента по огромному количеству параметров, таких как ключевые слова в тексте и в тегах, трафик на определённую дату, наличие исторических ссылок, неймсервера и так далее. С помощью этой системы можно будет делать выборки любой сложности, к примеру найти все домены, удалённые в 2018 году, в контенте которых содержались слова webmaster analytics, имевшие тогда Alexa rank менее 300k и которые имели более 30 уников в день по определённому ключевому слову в 2016 году. Наш сервис будет иметь удобный интерфейс для поиска нужных данных и будет содержать в себе скриншоты сайтов со всеми параметрами в виде графиков и таблиц.
Следующим этапом развития системы будет индексация живых сайтов и расширение базы проиндексированного контента. Будут доступны для поиска медиафайлы и некоторые внутренние страницы сайта, выбранные по алгоритму учитывающему значимость этой страницы. В итоге система будет использовать преимущественно свою базу архивированных сайтов и станет не зависимой от Archive.org

Louck #:

Подтверждаю, сервис - Бомба !

У меня вопрос по готовым сайтам. Все сайты восстанавливаются по разному, какой инструмент вы считаете эффективным для анализа результата ?

Дело в том, что DA и обратные ссылки не совсем объективны, так как еще зависит от "чистоты сайта" - наличия ошибок, присутствия всех тегов.

Как определить эффективно отделять хорошие сайты от неудачных ?

Если вопрос к нам, то он пожалуй слишком обширный. Для улучшения восстановления можно воспользоваться готовыми инструментами, которые есть в нашей CMS, таких как удаление битых внутренних ссылок, изображений, убрать версионность со стилей и скриптов, добавить в страницы viewport, перевести весь сайт на utf-8 и т.д. Ненужные страницы там тоже очень легко удалить через поиск, в котором можно детально настроить фильтрацию.

Что касается технических ошибок по коду восстановленных сайтов, то если вы выбираете параметр "Оптимизировать HTML-код", то он уже на выходе будет технически почти идеальным для ПС. Дизайн может и косячить, но именно с технической стороны html код будет структурирован правильно, теги приведены в соответствие стандартам и т.д. Параметр оптимизации картинок тоже проделывает много оптимизации за вас. На выходе сайты имеют достаточно большой балл в Google Pagespeed или GTmetrix. Иногда даже 100 из 100. Если вы скачаете живой сайт нашей системой с включенными параметрами оптимизации, то скачанный сайт в отличие от оригинала в подавляющем большинстве случаев будет лучше по Pagespeed чем оригинал. В большинстве случаев параметров оптимизации и пары нажатий кнопок внутри CMS бывает достаточно.

Ну и, пожалуй, если нужно какие-то сайты допиливать, чтобы на страницы проставить мета теги, то это уже делается вручную. К счастью, инструменты Archivarix CMS позволяют делать это достаточно быстро и массово на все страницах сайта любого размера вместо того, чтобы сидеть и редактировать по отдельности каждый статический файл. На нашем ютуб-канале есть много полезных видео об этом.

Если восстановленный сайт изначально не был каким-то сгенерированным дором/спамом и имел хороший контент, то из него можно сделать технически хороший/удачный сайт. Даже если он восстановился не совсем удачно, по той причине, что из ВебАрхива можно восстановить только то, что когда-то было сохранено.

kon68 #:

А как вы с "админом" связываетесь? Я что то устал искать контакты кому вопросы задать.

На сайте с любой страницы в верхнем меню есть ссылка на раздел Контакты.

Там прямые контакты на Telegram, FB Messenger и форма обратной связи.

Никнеймы в телеге и мессенджере: @ArchivarixSupport

Мы сделали пару инструкций по тонкостям работы с нашей CMS. Как сгенерировать метатег description на все страницы сайта и как сделать, чтобы восстановленный сайт работал из директории, а не из корня. Видео -

https://www.youtube.com/watch?v=k-iHT-rVs3A

https://www.youtube.com/watch?v=fRm2rF97-fw

Текст в нашем блоге - https://archivarix.com/ru/blog/regex-add-description-website-on-subfolder

Сегодня мы выпустили очередное обновление CMS, версия 0.1.200521:

- Отдельный пароль для безопасного режима.

- Расширен безопасный режим. Теперь можно создавать кастомные правила и файлы, но без исполняемого кода.

- Переустановка сайта из CMS без необходимости что-либо вручную удалять с сервера.

- Возможность сортировать кастомные правила.

- Улучшены Поиск & Замена для очень больших сайтов.

- Дополнительные настройки у инструмента "Метатег viewport".

- Поддержка IDN доменов на хостингах со старой версией ICU.

- В начальной установке с паролём добавлена возможность разлогиниться.

- Если при интеграции с WP обнаружен .htaccess, то правила Archivarix допишутся в его начало.

- При скачивании сайтов по серийному номер используется CDN для повышения скорости.

- Другие мелкие улучшения и фиксы.

totamon:
если понимать что делаешь никаких сложностей нет... для примера можно разобрать архиварикс CMS, она как раз это и делает - совмещает ВП и статичные страницы с вебархива

А зачем разбирать? Архиварикс предназначен не только для скачивания из веб архива, но и для этих целей тоже. Скачайте сайт вместо HTTrack архивариксом, там есть специальная сайтокачалка - https://ru.archivarix.com/website-downloader-cms-converter/ И пользуйтесь на здоровье.

DeXtR:
Очень круто, вы молодцы, что такое сделали. Давно искал нормальную однофайловую CMS, но все какие-то глючные и с плохим дизайном.

Чтоб ваш проект не умер через 1-2 года, начинайте его сразу продвигать на крупных западных форумах, там сотни тысяч вебмастеров со всего мира и им реально нужна ваша софтинка, так как аналогичные сервисы не обладают CMS и продают по подпискам . Топ1 такой форум BHW , только там нужен прокачанный оплаченный на год аккаунт, если хотите, я могу опубликовать ваш пост на BHW бесплатно, только не буду оказывать поддержку в топике, вы сможете со своего аккаунта отвечать в топике. С таким продуктом там будет сотни желающих , так как это супер-распространённое явление -- делать PBN

Спасибо что оценили наш проект. Был бы очень признателен, если бы вы опубликовали пост про наш сервис в BHW. Если что-то еще надо, можете написать в личку.