exp131

Рейтинг
69
Регистрация
26.05.2010

Итак, наконец я собрал новую версию программы в которой учтена часть пожеланий, к сожалению все учесть не получилось, но работа не останавливается.

Представляю Вашему вниманию программу PageWeight версии 1.6

Что нового

  • При расчете весов можно включить использование внешних ссылок
  • Добавлена возможность удалять группу ссылок в окне моделирования
  • При перерасчете используются начальные значения весов
  • При сохранении настроек так же записываются настройки сканирования и расчета (URL сайта и расстановка флажков)
  • Добавлено автоматическое обновление

Для старых покупателей

В течение сегодняшнего дня я проведу рассылку по базе клиентов писем в которых будет ссылка на скачивание дистирбутива. Так что настройте свои спам-фильтры чтобы не блокировали почту с support@page-weight.ru. С этой версии программа будет обновляться автоматически и необходимость в рассылках отпадет.

Если Вы являетесь покупателем программы, но не получили письмо с обновлением или не хотите ждать то пройдя по этой ссылке и введя тот e-mail на который Вы покупали программу Вы получите индивидуальное письмо с ссылкой на скачивание.

Для новых покупателей

Наконец-то мне подключили интерфейс робокассы и теперь продажи программы осуществляются в автоматическом режиме с помощью удобной для Вас электронной валюты. Доставка происходит сразу после оплаты, как говорится, 24/7.

Чтобы купить программу перейдите по этой ссылке и введите свой e-mail. После оплаты на него будет отправлено письмо с ссылкой на скачивание дистрибутива.

Все вопросы как обычно в эту тему или на support@page-weight.ru

alekzey:
А мне, как покупателю, даже такой кривой спам не пришел.

Обидно.

А на какой e-mail Вы покупали программу?

SITERATING:
Я не сисадмин, по этому вопрос может показаться странным. Тем не менее не работает, с Вашего ответа, видимо дело не "на какой порт", а "с какого порта". Как решить, узнать, не подскажите?

Узнать можно запустив утилиту netstat из командной строки во время работы программы. Но лучше обратиться к своему системному администратору с этим вопросом. Он и порт посмотрит и разрешения пропишет.

SITERATING:
К какому серверу коннектится программа, или порт который юзает?
По всей видимости блокирует серверный Kerio.

Хм. Странный вопрос "к какому серверу". К Вашему серверу, на 80-й порт как обычный браузер. С какого порта точно не скажу т.к. открывает любой свободный.

Realtim:
письмо пришло. тема интересная - "п я п пЁя п п п п п п я п п п п п п п п п я п п я п "
ждем обновлений... а что нового будет в последней версии?

Это юникод UTF-8. Почему-то он у Вас отображается некорректно.

Что касается новой версии то там в первую очередь исправлены старые недоработки и ошибки. Такие как учет внешних ссылок при расчете веса и повторный расчет от предыдущих значений.

Полный список опубликую чуть позже.

V_V:
а обновления автоматически приходят на почту или нужно самостоятельно отслеживать их появление и запрашивать обновленную версию?

Когда выйдет обновление я сделаю рассылку всем купившим с инструкциями как обновить программу, а так же отпишусь здесь.

exp131 добавил 14.06.2010 в 22:41

Уважаемые покупатели. Сейчас настраивал рассылку обновлений и случайно рассылка ушла :)

Всем купившим была отправлена последняя версия программы 1.5.5. В течение дня-двух, я подготовлю обновление (версия 1.6) и сделаю повторную рассылку.

Прошу извинить за преждевременные беспокойства.

V_V:
приобрел сегодня данную прогу, в целом доволен ее работой и интерфейсом, но обнаружил один недочет, который делает некоторые ее функции крайне неудобными в использовании, в частности в моделировании виртуальных ссылок - есть функция выделения части либо всех исходящих или входящих ссылок на странице, но при нажатии кнопки del, удаляются не все выделенные, а только одна верхняя.. Получается, что при желании смоделировать распределение веса на сайте, виртуально заключив в nofollow ссылку, которая присутствует на всех страницах сайта, но бесполезно снижает передаваемый вес на другие страницы, нужно либо до посинения по одной удалять все входящие ссылки на этой странице, либо отказаться от моделирования и внести изменения на сайте, а затем заново запустить сбор данных, что весьма затратно по времени..

Будет исправлено в ближайшем обновлении.

lexxspace:
Программа не работает на техническом имени сайта, показывая в результатах лишь главную страницу. Тестировался сайт вида http://2.site.z8.ru/

Программа работает с любыми именами сайта, даже с IP адресами. Единственное условие чтобы сайт был доступен с той машины где запускается программа.

В вашем случае, тот УРЛ, что Вы указали не доступен с моей машины, поэтому мне сложно сказать почему у Вас не сканирует далее главной страницы. Но проблема либо в доступности сайта, либо в верстке страницы. Если Вы уверены что все в порядке - отправьте html код страницы на support@page-weight.ru, если нужно я внесу изменения в программу.

Realtim:

скажите как скоро она появится. Хотелось бы чтобы программа понимала роботс так же как это делают поисковики, в частности яндекс и гугл. Хотелось бы чтобы прога понимала не только disallow, но еще и Allow и символы * и $ А также последовательность - сначала Allow, а потом disallow или наоборот. И чтобы можно было выбрать юзер-агента - для кого проверяем это все для яндекса или для другого каго-то. На некоторых сайтах нужно писать разные правила индексации для разных поисковиков.

Как я уже говорил это задача для второй версии, при том, не основная. Поэтому точных сроков назвать не могу. Но все изменения и доработки будут публиковаться в этом топике. Поэтому следите за темой.

exp131 добавил 13.06.2010 в 11:21

moonsitec:
вы уже готовы принимать оплату за программу, ?

Как ни странно, но робокс уже вторую неделю не подключает интерфейс для приема оплат, по разным причинам. Поэтому я все еще веду переговоры.

Однако, если Вы хотите купить программу уже сейчас - пишите на support@page-weight.ru.

достаточно давно уже пользуюсь вашей прогой для определения весов стр.

такой вопрос: когда при запуске ставишь испльзувать роботс, то какой юзер-агент использует программа? вот у меня отдельно в роботс правила для яндекса и для всех остальных поисковиков.и теперь посмотел на анализ своего сайта этого - видно что роботс не учтен - много страниц, которые запрещены к индексации.

В текущей версии программа маскируется под Mozilla Firefox и соответственно выдает юзер-агент: Mozilla/5.0 (Windows; U; Windows NT 5.1; ru; rv:1.9.0.5) Gecko/2008120122 Firefox/3.0.5. Но при парсинге файла robots.txt использует ВСЕ инструкции disallow.

на какие директивы в роботс вообще реагирует программа?
Allow:
Disallow:
символы * и $ так, как они учитываются яндексом.

-на всё это программа нормально реагирую и понимает это все?

проблема явно в чем-то есть...

Да, алгоритм парсинга robots.txt имеет ряд недороботок, и понимат только инструкции disallow: без символов * и $. Его почти полная переделка намечена на вторую версию программы.

Сейчас для ограничения зоны сканирования используйте исключения ("Настройки" -> "Опции"). Об их использовании можно узнать из нового хелпа.

Всего: 467