Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
foxbv:
Приобрел программу.

Удивился, когда лайтом со второй попытки удалось пройти весь сайт.
Но вот что странно, но сайте даже после моей чистки осталось порядка 8-9 тыс страниц, а программа отработав 100% страниц показала всего 5000...

Картинок много на сайте, которые открываются в отдельном окне? Возможно они считаются за страницы. В лайте сейчас по умолчанию в настройки забито игнорирование подобных страниц.

Уважаемые коллеги!

Вчера был выложен на тестирование новый парсер для программы Page Weight!

В парсере реализовано все то, чего так хотелось, но не было возможности реализовать. А именно:

1) Многопоточность

2) Автоматическое сохранение данных. Теперь даже если отключат свет - все сохраниться :)

3) Пауза и возобновление парсинга

4) Парсинг отдельных разделов.

5) Скорость выросла примерно в пять раз. Но по прежнему зависит от сайта и качества канала.

Новый парсер на данный момент доступен только покупателями текущей версии программы. Скачать его можно в личном кабинете. Если кто еще не получал пароль к ЛК, то сделать это можно здесь: получить пароль

Так же вместе с парсером бесплатно поставляется мини модуль тех. анализа. Основная задача модуля - посмотреть, что там спарсилось. Т.е. показываются: кол-во страниц, кол-во ссылок, ответы сервера, и т.п. Так же модуль выводит все страницы с ошибками, проблемные и внешние ссылки. Для каждой конкретной страницы можно посмотреть входящие и исходящие ссылки (в пределах сайта).

Модуль идет в одном инсталяционном пакете с парсером и так же доступен только покупателям текущей версии.

Чуть позже в личном кабинете будет сформированы страницы обратной связи и ToDo лист, для отображения хода работ.

Приглашаем потестировать парсер всех, кто так долго его ждал :)

L!mur:
exp131 из буфера не копируется в поле адреса сайта.

Да ладно! Все копируется :)

foxbv:
Присоединяюсь к вопросу.

Можно ли сейчас приобрести то что есть и юзать до выхода 2-й версии программы а потом поменять на версию для больших сайтов ?

Да, конечно. Кроме того будет возможность потестить все новинки до их выхода в продажу :)

______________________________

Всем покупателям текущей версии будет предоставлена скидка в размере её стоимости (600 руб.) на покупку новой. Т.е. вам нужно будет только доплатить разницу.

L!mur:
Sterh ждем ждем, хочу запустить паука на пару сайтов больших, потестировать.

Сам жду, когда кто-то загонит большие сайты. А то на моем 3G модеме особо не разгуляешся :) ... а так 35К страниц на скорости 18Kbc

yaltabes:
Пару месяцев назад по совету Саши Люстикова "MyOst" купил данный продукт пока настроил с его помощью два небольших проекта и остался доволен. Думаю очень хорошая программа и особенно ей стоит воспользоваться когда сайт еще не вырос и не оборок огромным количеством страниц.
С помощью программы быстро вывел в топ 30 новый сайт по 30 низкочастотным- высококонкуреннтным запросам. Спасибо ТС

Благодарю за отзыв :)

Arc_us:
Sterh а когда выйдет 2 версия программы? Уже готов к покупке))) Ну если будет новогодняя скидка, так это вообще будет супер (:

"Товарная" версия ожидается к концу января. Сегодня на тестирование выложим парсер.

Restar:
Сегодня уже конец недели.
Новогоднее поздравление будет в виде скидки на покупку проги?

У "нормальных" людей конец недели - воскресенье )))

На самом деле я обещал выложить только парсер и то на тестирование (правда писал об этом подробно еще в прошлой ветке).

Модуль расчета будет ближе к концу января.

Сейчас будет предложен мини-модуль, который просто выводит кол-во страниц, ссылок, страниц с ошибками и т.п.

jaguarcat:
да уже замечено. 7к уже не осилил и чтот завис- сканил целый день :(
скорости бы прибавить скану и возможность проект останавливать-сохранять- все таки для больших сайтов это проблема все осилить иногда за 1 присест :(

спасибо и будем надеяться на положительные изменения в функционале
с уважением и с наступающим НГ

Все это уже есть во второй версии. Надеюсь новый парсер выложим для тестирования уже к концу этой недели.

foxbv:
а сайты с 15-20 тыс. страниц тянет или нет?
Что вкладывается в понятие большие сайты?

Врядли. Оптимально до 5К страниц

foxbv:

Если нет, будет ли допиливаться программа для работы с такими сайтами?

Уже допиливается

burunduk:
dimapv, попользовались и решили вернуть?
я бы не возвращал деньги - на сайте написаны ограничения :)

Не, когда требование возврата объективно, то стараемся идти людям на встречу. Ну не увидал человек предупреждения, бывает.

----------------------------------

А тем временем запуск второй версии все ближе. Сегодня был сделан еще один подготовительный шаг - выложили сайт :)

То, что было раньше, сайтом назвать было сложно 🙄

Пока еще пустовато, но основные функции работают. Теперь регистрационный номер можно получить в личном кабинете и там же скачивать последние версии программы.

В ближайшее время выложу подробную инструкцию по работе с программой и кое-какие материалы по перелинковке.

Эта классика давно в избранном :) Вообще крутится мысля попробовать сделать разные варианты расчетов. Обещать не буду, но возможно реализуем.

dimapv:

Программа PegeWeigth абсолютно не работоспособна для более менее крупных сайтов - это на моем опыте - 2 попытки 2 отказа. Больше времени я на нее тратить не хочу. Sterh, что будем делать?

Ну, вообще на сайте предупреждение есть, что прога большие сайты не тянет. А так - напишите в саппорт (не забудьте указать e mail, на который покупалась программа) вернем деньги.

Всего: 2038