Только что пришли инструкции по настройке распределенного сканирования. На первый взгляд ничего сложного. Как настрою - отпишусь.
Купил сегодня. Пока что недоволен. На сайте расписано, что система распределенная, - по факту, когда я получил скрипт, сразу выявил несоответствие. ТП сообщила, что мануал, который высылается автоматически системой после покупки - старый.
4 часа назад ТП сообщила, что есть решение и вышлют инструкции. Но никто ничего не прислал.
Хочу добавить, что как таковой сервис был бы интересен в связке с десктопным анализатором/модулятором веса страниц. Если есть большой онлайн проект, который сервис будет сканировать в 1000 потоков экономя мое время на сканирование, то обрабатывать данные и моделировать веса было бы удобнее в заточенной для этого декстопной софтине, а не в том же экселе.
Мой вопрос связан с тем, что сканирование - дело долгое. PageWeight Lite тому подтверждение. 100 тысяч страниц может сканироваться двое-трое суток, в зависимости от хостинга. А за какой срок PageWeight Online отсканирует 500 000 страниц? А 10 000 000? PageWeight Lite вообще не предназначен для скана сайтов таких объемов. А когда проект доступен локально, тот же PageWeight (старое название) Base - справился бы с этим быстрее онлайн сервиса. Судя по тем крохам соглашения, которые я читал - система PageWeight Online вообще не имеет никаких лимитов и не несет ответственности по срокам сканирования, - хоть два дня, хоть три месяца.
А после того как из личного кабинета пропали ссылки на беты Base - я забеспокоился, потому что приобретал версию Lite с перспективой апгрейда до Base, причем, до этого спрашивал о сроках выхода в твиттере и был озвучен конец февраля - начало марта. Март пролетел, а мы все ждем.
Разработка PageWeight Base прекращена? Если нет, то когда ждать появления работоспособного релиза, умеющего считать веса?
Позавчера еще работала - делал тестовый прогон. Сегодня уже нет. Находит то 12 то 39 картинок вне зависимости от выставленного режима в парсере. Видимо гугль что-нибудь изменил.