Скажем так, если бы цена зависела только от кол-ва страниц в архиве - она была бы гораздо выше для архивов с нулевыми или низкими показателями. Решение сделать ценообразование в том числе на основе тИЦ и траффика продиктовано необходимостью сделать стоимость архивов лояльной к каждой группе пользователей:
-- Те, кто платит больше за домены с показателями (тИЦ, траффик), может себе позволить заплатить немного больше за архив с контентом. Замечу, что даже при нынешних ценах, стоимость архива редко превышает 15-20% от стоимость перехвата самого домена.
-- Те, кто платит за домены небольшие цены, по нашему опыту не готовы платить не них больше.
На заре существования сервиса ценообразование было другим, минимальная стоимость одного архива была ~300 рублей. И это сразу же отсекало тех, кому нужны недорогие домены.
На данный момент такое ценообразование по сути позволяет только покрывать все издержки :) Поэтому поверьте на слово - максимально продумано и лояльно для наших пользователей!
Кроме того, замечу, что цена за архивы уменьшается со временем в 2-3 раза.
В описанном вами случае - да.
Но, контент можно использовать не только для тех доменов, на котором он был ранее :) Особенно актуально для продвижение в буржунете.
Цены на что? :)
-- Выбор доменов и просмотр любой информации - бесплатен
-- Архивы - у каждого сайта индивидуально (зависит от траффика, тиц и кол-ва страниц);
-- Ставки на домены - пока что показываем только для RU/SU/РФ наличие ставки в expired.ru (имхо, самый объективный показатель)
Уже 1,5 года как работает сервис :)
Основная цель вебархива - сохранить наиболее важные документы "для истории". Цели угодить вебмастерам у них увы нет :)
У нас архивы и содержание сайтов на 100% соответствует тому, чтобы было на домене до удаления - если на сайте были не достатки и косяки, они и у нас при восстановлении будут. Но, мы уже научились решать практически все проблемы с архивами - поэтому если что, лучше писать в ТП.
ahrefs, serpstat, semrush
megaindex, spywords
где то прямо в интерфейсе урл можно вводить, и выведет список продвигаемых запросов, где то нужно будет из excel это брать.
Новые фишки в сервисе:
-- Добавили возможность сбора данных из Majestic (TF, CF и другие);
-- Данные по Google теперь снимаются из нескольких "источников". Это позволит значительно уменьшить случаи, когда часть данных не снялись.
-- Сервис полностью переведён на английский язык.
Что убрали из сервиса:
-- Убрали инструмент проверки проиндексированности страниц (скоро он появится в виде отдельных пунктов в основном инструмент по Массовому сбору параметров); Все прошлые отчёты доступны через раздел "История" и по прямым ссылкам.
-- Убрали инструмент массовой проверки сайтов на используемые технологии. Скорее всего в будущем так же появится в основном инструменте в том или ином виде.
-- Временно убрали возможность съёма данных по SemRush из за проблем с источником.
Ahrefs в планах есть, но будет доступно только для тех у кого есть подписка на сервис :)
Да, у Яндекса сейчас нет стабильности с операторами (host, site, url). Каждую неделю что то ломается :/
Если деньги снялись, а данные вы не получили - напишите в техподдержку, вернём. Это временная мера - уже очень скоро деньги за все не полученные данные будут автоматически зачисляться на счёт.
JS включен в браузере? Пока что проблем с пополнением на наблюдали :(
Напишите ваш логин в support@digimetr.com
Параметры те же, что и в бесплатной версии. Digimetr помогает собрать эти параметры для большого кол-ва доменов и в более структурированном виде :)
1) можно увеличить кол-во памяти выделяемое на задачу. По умолчанию резервируется 512 Мб. Читаем тут, пункт Memory.
2) можно воспользоваться онлайн краулерами и выполнить задачу в облаке. Вбиваем в Google "online crawler service" и выбираем :)
3) Купить a-parser или Content Downloader. Решал похожие задачи с помощью каждого инструмента.
4) Отдать задачу на фриланс тем, у кого есть апарсер. Например видел топик в разделе "Прочие услуги".
Не уверен, что эта программа решит потребности ТС - скорее всего ему просто нужны мета-данные с каждой страницы.
ahrefs относительно хорошо траффик по google определяет // для отдельного урла.
1. Да, есть - http://joxi.ru/Q2KqpB7szExNrj
2. Сервис проверки индексации страниц - https://digimetr.com/ru/tools/check-page-index
3. Запретить маски урлов в robots.txt
4. Нет