Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
Str256:
Sterh, а что насчёт того что я написал тут для 1.х версии: /ru/forum/comment/10741993 будет исправлено?

Да, Виталий из отпуска вернется через недельку, тогда и займемся.

CB9TOIIIA:
В сторону Page Weight могу сказать - бета версия Base редакции, просто отличная и работает шустро. Также разработчики сами пишут в ЛС у узнают "хотелки" пользователей, для их реализации.

Ту Base, которую перед НГ выпускали, увы пришлось заморозить. Но и та, которая сейчас на тестах, тоже вроде шустро работает.. и вроде без серьезных глюков (по крайней мере о них пока не сообщали тестеры). ;) ... это намек :)

total7:
Проверял два сайта дважды - происходит одно и тоже, программа работает несколько часов (ночь, день-съдает по пол гига трафика) насчитывает кучу страниц и затем просто напросто вырубается, "ни ответа ни привета".
Проверил сайт где страниц 50, она мне насчитала 2!?? Лажа какая-то получается, стоит ли такой программе доверять? Деньги за неё берут, прога толком не работает, поддержка молчит, а трафик жрёт что можно разориться! Ау, создатели, вы где? Это лохотрон што-ли?
Может кто-нибудь посоветует прогу типа этой, но нормальную, что бы она работала стабильно, побыстрее(ночь комп жужжит), не жрала столько трафика, могла работать с сайтами на которых 10 000 и выше страниц.

А от такого издевательства меня уже тошнит, сегодня наконец-то тех.поддержка соизволила ответить, сообщила что у меня имеется какой-то косяк на сайте он создаёт петлю "ссылочную" и поэтому когда идёт сканирование программой Page Weight она начинает сначала "кружить" по кругу день, ночь, а потом когда вообще "тупанёт" вырубается!

Сайты у Вас толком не работают. И поддержка указала Вам на ЯВНУЮ проблему с Вашими сайтами.

total7:

Чё молчали столько времени, а я тратил своё время и нервы.

Приносим свои извинения, но при разборе сообщений типа: "У меня прога работала-работала и вдруг перестала. Чё делать?", порвали последний бубен.

-----------------------

Gnev88:
http://clip2net.com/s/2dy4i выбило на сайте через несколько часов сканирования, что у вас за программа такая что не дает результата?

Выбила второй раз.

200К ссылок, вообще, нормально тянет. Возможно где-то циклится. Скиньте УРЛ в тех поддержку.

L!mur:
Sterh софтины рождаются и умирают, а обещанной версии все нет.
За это время можно было операционную систему написать и встроить в нее эту программу.
100% ничего не пишется, потому что написалось бы уже давно, даже левой рукой.

Может тогда серверную версию, скриптовую, продавать начнете, раз обещанного не исполнили?

Ну, Str256 уже спалил великую тайну ... :) А продавать серверную вообще смысла нет. Там куча возни с настройками, плюс постоянно что-то там допиливается (благодаря "прямым рукам" некоторых вэбмастеров), т.е. это проблемы обновления... В итоге будет либо очень дорого, либо куча гемороя, на который будем периодически забивать.

---------- Добавлено 19.08.2012 в 15:41 ----------

burunduk:
фига вы себя ограничиваете 😮, у меня за день гиг улетает (с учётом того что я ни чего не качаю типа фильмов и музыки) :)

А у меня Домолинк 10 Гигов через 3Жы... тоже не хватает.. сам он-лайном пользуюсь )) для этого его и сделал

golf4man:
А вот не знаю, писали ли тут про то, что во вкладке программы "Внешние ссылки" при сканировании документа с элементом <base href="..." /> внутренние ссылки с относительным путем считаются как внешние.

А может base href не корректно прописан? Раньше довольно часто сталкивались с подобной проблемой, и проблема была как правильно именно в кривости кода.

Впрочем, УРЛ проблемного сайта мне в личку или тех. поддержку.

doc попадаются редко, но метко. Если программа начинает их тянуть, то сильно возрастает время загрузки. При этом, как правило, сами документы для скачивания doc, pdf и т.п. не содержат в себе ссылки, ведущие на страницы сайта к которому "привязаны".

Таким образом мы получаем на какой либо странице одну ссылку на скачивание документа, а с самого документа обратной связи не имеем. Т.е., если эти документы выкидывать, то при расчете получает небольшая погрешность и не более.

Поэтому и включили по умолчанию - лучше допустить небольшую погрешность в пользу скорости, чем наоборот.

bulba_man:
Т.е. вы предлагаете удалить меню? о_О Я правильно понял?

---------- Добавлено 15.08.2012 в 20:39 ----------

Всё, разобрался:) Меню скрыть необходимо только в момент проверки сайта программой.

Да. Только не удалить, а закрыть ссылки от индексации. И не на момент проверки программой, а вообще. Иначе, повторюсь, от Вашей "перелинковки" толку ноль.

bulba_man:

Какждая страница получает по 13 и отдаёт по 13 - это меню сайта, почему не показаны остальные ссылки из контента? Во время сканирования же все "съелись".

Здравствуйте!

Дублирующиеся ссылки удаляются. Т.е. ставить две ссылки, одну из меню, другую из контента смысле нет никакого.

---------- Добавлено 15.08.2012 в 20:40 ----------

arkasha69:
Разрабатываемой 2 версии

Тестирование закрытое. Так что никак :)

arkasha69:
Как поучаствовать в тестирование?

В каком?

Lovenokia:
Здравствуйте.
Мне нужна программа, чтобы грамотно сделать внутреннюю перелинковку.
Стоит ли покупать эту программу, если на сайте еще нет даже 100 страниц (сайт будет постоянно наполняться)?
Чем лучше пользоваться page weight lite или page weight online???

Хех.. у меня два противоположных ответа на вопрос :)

1) На малом количестве страниц перелинковка даст весьма незначительный эффект. И, в принципе, можно с ней не заморачиваться.

2) На малом количестве страниц очень удобно тренироваться, считать, моделировать. И этот опыт несомненно пригодится в дальнейшем.

Так что покупать или нет - решайте сами :)

Лучше купить Lite

antel13:
Всего 20 серий. А что посоветуете для более лучшего эффекта?

Если и страниц, соответственно 20 (или чуть больше), делайте схему "все на всех" и не парьтесь с перелинковкой.

Jboss:
Обнаружил баг в программе, программа неправильно парсит ссылки с https. У меня на страницах поставлены ссылки на профиль автора в гугол+. Ссылка имеет вид https://plus.google.com/123?rel=author. После сканирования все эти ссылки попали в 404 со следующими url /название раздела где установлена ссылка/https://plus.google.com/123?rel=author

Увы, это не баг, а недоработка. Слишком редко нам на неё пинали, вот и не исправили. Исправим.

i-сapitalist:
Здравствуйте! В программе отмечаю галочку: Использовать User-agent: PageWeight, а в результате отправляется:
Mozilla/5.0 (Windows; U; Windows NT 5.1; ru; rv:1.9.0.5) Gecko/2008120122 Firefox/3.0.5
В мануале эта настройка используется для обработки файла роботс, что собственно с отправкой http заголовков программой не связано.
Можно ли сделать так, чтобы программа представлялась своим именем?

Извините, программист сейчас в отпуске, а я внятно ответить не смогу :)

Всего: 2038