Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006

2 wlad2 Копировать URL сделаем. Список обновлений в проге, возможно, тоже добавим.

--------------

Вышло экспресс обновление 2.0.7

  • Исправлена работа с кириллицей в доменах
  • Исправлен баг, приводивший к зависанию при нажатии кнопки "показать / скрыть"
  • Исправлен баг, приводивший в некоторых случаях к вылету программы.

Обновление загрузится при очередном запуске программы.

Стараемся работать оперативно :)

2 wlad2 Ошибку с PRIMARY KEY вроде отловили. В ближайшее время выложим обновление.

Str256:
Вот вы бы тестировщикам и дали возможность получения инвайтов для покупки программы, без резервирования средств:)

Да не вопрос, стукните в личку, договоримся :)

Str256:

И с битыми ссылками, можно переделать? Чтобы бы просто список уникальных страниц которые не отвечают, а справа в графе "страница с ошибкой" - цифра ссылок которые на неё стоят с других страниц. И только при клике на эту строчку чтобы открывалось окно где были видно с каких страниц стоят ссылки на неё. И чтобы было в контекстном меню мыши поле - перейти по битой ссылке - сейчас нету такого.

Сделаем отдельные вкладки "Запрещенные страницы" и "Страницы с ошибками"

Str256:
Сколько времени прога ждёт открытия страницы, прежде чем посчитает ссылку битой?

Около 10 секунд.

technomaster:
Проект за 350к страниц, хотя честно не знаю откуда там столько. Как остановить его и пересчитать вес? А то уже камп ложится от вашей программы..

Кнопка "остановить сканирование".

byzov17:
может повторю чей нибудь вопрос но все же ...
Как учитывается тег <noindex>?
Только так : <noindex> <a ...>Анкор и ссылка которую не учитывать</a></noindex> ?
так уже не сработает? <!--noindex--> <a ...>Анкор и ссылка которую не учитывать</a><!--/noindex--> ?

noindex закрывает от индексации только анкор ссылки, саму ссылку нет.

Видимо сделаем еще две вкладки в результатах: закрытые страницы и страницы с ошибками (отличные от 200 ОК).

------------------------

inseonight:
Судя по кол-ву страниц в этом топике и кол-ву багов, я не один такой....;)

Вы уже накодили прогу на благо народа? Нет? Повторюсь: когда сделаете - тогда и приходите, с удовольствием выслушаю конструктивную критику.

P.S. К счастью, в данном топике (как и в предыдущих ветках), людей, как Str256, много больше. И благодаря им, программа развивается. За что им, огромное спасибо! :)

inseonight:
Уже год слежу за программой, или даже больше!!! А глюки как были так и есть и нормальной версии похоже не видать...

Есть категория людей, которые везде амна отыщут.

inseonight:

ТС, вы бы уже не мучали ни себя ни людей, выложили бы формулы и мы сами накодили нормальный безглючный вариант...

Формула опубликована более 10 лет назад, и любой оптимизатор её знает. Берите, кодьте, а потом приходите сюда понты раскидывать.

---------- Добавлено 28.11.2012 в 09:11 ----------

Str256:

Не надо вообще сканировать то что закрыто. Веса считаются по тем страницам что будут в индексе, а не всем что есть на сайте. А то что закрыто в индексе не будет.

Дык и не сканируем. В базу пишется только УРЛ, точно так же, как и с внешними ссылками.

2 Nina

Как то странно все.. можно урл в личку?

Nina:
Страницы вида http://www.site.ru/page-3.html?month=12&year=2012 закрытые в роботсе

Я не это имею ввиду. Т.к. программа работу не закончила, то результаты не обработаны, и закрытые страницы Вы видите в списке очереди сканирования. Так?

Nina:

http://floomby.ru/s1/RDs34 - это я попыталась проект остановить. Уже полчаса любуюсь.

Закройте программу и запустите скан снова. Начнет сканировать с момента последнего сохранения данных.

---------- Добавлено 27.11.2012 в 16:28 ----------

Nina:
User-agent: *
Disallow: */*?*
Disallow: /tags
- этот роботс прекрасно понимают все поисковики, но программа сканирует тем не менее

Юзерагент - pageweight. Локального роботса не было.

ну и это.. Если у Вас юзер-агент в проге pageweight указан, а в роботсе дерективы для *, то естественно эти дерективы будут игнорироваться.

Nina:
У меня отсканировало 25 тыс страниц (хотя поставила использовать robots, где все ссылки с ? закрыты от индексации) и сдохло. Стоит уже полчаса, дальше обрабатывать не хочет. Что делать - хз

Я так полагаю, что отсканировало не страницы, а ссылки на страницы, закрытые в роботс?

По поводу "сдохло". Что пишет? Что показывает? Скришот "сдохшего состояния" хотя бы можно?

Gnev88:
Подскажите пожалуйста что за ошибка http://clip2net.com/s/2xFXt Я чистил реестр Reg Cleaner-ом он подчистил и SQL

Тык сюда: http://www.page-weight.ru/soft/page-weight/pw-desktop/install/

:)

Всего: 2038