Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
CunninGFox:
Если я давно покупал программу, то чтобы получить новую версию нужно ли что-то платить, и если да, то сколько?

На данный момент ничего доплачивать не нужно. Пройдите по ссылке и введите e-mail на который покупалась программа. Вам придет рег. номер и ссылка на скачивание последней версии

http://www.page-weight.ru/register/

tysson:
кстати почему настройки из robots.txt не сохраняются, а их надо подгружать каждый раз?

может сделать, чтобы они сохранялись в самой проге?

Потому что у каждого сайта свой robots

А настройки для определенного сайта можно сохранить, и при необходимости загрузить.

2 tysson

Часом не тот же случай?

..... сохраняю отчет в *.csv - тут, во-первых, обнаружился небольшой глючок - тайтлы с амперсандами (" у меня там в неск-х местах) вместо того, чтобы уместиться в свой столбец "Заголовок" залезли на соседние столбцы (sapienti sat)....
Sterh:


Всплывал этот вопрос уже. Решение в этой ветке можно почитать с поста 983 до 993

tysson:
при экспорте csv какие разделители ставить?

Точка с запятой. А вообще любой csv можно открыть блокнотом и посмотреть, какие используются разделители... бо разные могут быть.

Gal262:
По моему вопросу будет ответ?

Ковыряем :)

L!mur:
Так чего тут стесняться, он и так уже сайт показал фактически

Да там уже разобрались - 301 редирект на одной странице, а на вторую и так ссылки были видны. Только автор почему то пока не отвечает...

sadis:
программа не понравилась больно она сложная не разобрался еще пока в ней

Спасибо за отзыв :) Теперь я понимаю, почему прогу рекомендую профессионалы :)

M2K2:
Вот я к чему и вел разговор. Хорошо бы было реализовать обработку правил с $ из файла robots.txt для исключения из сканирования закрытых от индексации страниц.

Постараемся сделать.

Sterh добавил 21.11.2011 в 14:10

HeR0vn1k:
...найдено более 11 000 страниц и 3 милл. ссылок.

Тоже на рекорд идете? :)

Сильвер:
..
НО! Поисковики умеют отделять ссылки в меню от ссылок в тексте(что они и делают), и чего не умеет программа, и поэтому в этом случае выходит полный бред и нескладуха....
Как быть в этом случае?

Учить теорию.

badtier:
бывают глюки и ошибки программирования
скринов недостаточно?

Тоже УРЛ в личку попрошу

2 Gal262

Так же, УРЛ в личку будьте добры

inky:
Здравствуйте, пользуюсь программой некоторе время (купил ее естесна). Однако в виду нескольких последних постов в этой теме появился вопрос - программа учитывает навигацию сайта ?

А навигация это не ссылки? Конечно учитывает.

Доброй ночи :)

Gal262:
Доброго времени суток.
Сегодня купил программу, начал сканить свой форум. Ну для начала удивился что там куча страниц, устал ждать...
Sterh в обще коменты будут?!

Вообще действительно, в выходные люди отдыхают обычно.

Как правило у форумов страниц много больше. чем ожидается. Позакрывайте в настройках все профили и другие служебные ссылки - будет ближе к реальности.

Jigo:
А чем лучше эта прога от того же linkoscop? которая мощнее, правильнее рассчитывает веса, плюсы и минусы и т.д. Ведь по ценам они же отличаются, так и не увидел внятного ответа на этот вопрос... Кто пользовался обеими программами, поделитесь впечатлениями.

Линкоскоп тоже не плохая программа. Единственное я не нашел у них комментариев по какой формуле они считают. Ну и суди по комментам на форуме ребята наступают сейчас на те же грабли, шишки от которых у нас уже зажили :) А так - удачи им. Здоровая конкуренция это хороший стимул к развитию.

badtier:
вот сравнительный обзор обоих программ по одному сайту.
непонятно, с чего это PageWeight назначил почти максимальный вес малозначительным страницам, и ошибочно показывает большое количество доноров на них. вручную перепроверял код доноров, ссылок нет, 100% ошибка программы

Программа НЕ УМЕЕТ ПРИДУМЫВАТЬ ссылки. Все что нашла - всё Ваше :) И руками код смотреть не обязательно. Двойной клик по по "WTF?" строке и увидите все входящие и исходящие ссылки данной страницы.

И еще. Не стоит оценивать потенциальный вес страницы только по количеству доноров. Можно и одной ссылкой передать столько веса, что мама не горюй, а можно и кучей доноров не отдать ничего. Внутреннее ссылочное сайта, особенно многостраничного, довольно сложная система, понять которую (в смысле уложить в голове что, как, откуда и почему) далеко не всегда представляется возможным. Собственно поэтому программа и создавалась - что бы не ломать голову, а увидеть своими глазами.

ЗЫ: По поводу технических ошибок - отправил все программисту. Как дойдет до сети - глянет (таки выходные все таки).

M2K2:
Видимо да, поисковики то ходят по таким страницами исключая страницу с $ а все что за ней учитывают

Примерно понятно. Прога такую схему не отработает. Программист озадачился )

poru4ik:
вот что происходит примерно на двухтысячном урле
http://gyazo.com/fecb887bc67b447f2da9118a074aa1eb

Весьма "информативная" картинка... Киньте урл в личку, и с каким настройками парсили. На других сайта ошибка повторяется?

Anny:
.... Я.Вм показывает, что бот обошел 35000 страниц. Мне казалось, что тыщ 50 реально есть... Но программа показала больше 90000, когда закончила сканировать.

Программа путешествует по всем ссылкам, которые находит. Если это интернет магазин, то учтет все ссылки с превьюшек на большие картинки, все ссылки сортировок и т.д. В этом и плюс и минус программы. Минус - парсит и то, что не нужно. Плюс - показывает, что формируются ненужные страницы. Ведь сортировка по цене, к примеру, может создать две дополнительные страницы со 100% дублирующим контентом. Поисковики такие страницы могут и не загрузить, а могут и зафильтровать, при чем зафильтруют совсем не ту копию, которую продвигаете :)

poru4ik:
Здравствуйте, задаю урл этой чудо-программе и вылетает она через какое-то время. Windows 7

А поподробнее можно? Она начинает парсить, а потом вылетает? Или вылетает сразу? Выдает какую-то ошибку?

Вобщем опишите пожалуйста проблему чуть подробнее, так сложно даже предположить причину.

M2K2:
Когда в программе добавляю в исключение программа видимо не учитывает все страницы находящиеся в этом меню (находит очень мало страниц), как в ней можно скрыть только сам пункт меню но не страницы в нем как делает директива $ в файле robots.txt ?

Не понял. Вы хотите запретить к индексации ссылку из меню, при этом что бы программа все равно прошла по этой ссылке и спарсила страницы?

Всего: 2038