На данный момент ничего доплачивать не нужно. Пройдите по ссылке и введите e-mail на который покупалась программа. Вам придет рег. номер и ссылка на скачивание последней версии
http://www.page-weight.ru/register/
Потому что у каждого сайта свой robots
А настройки для определенного сайта можно сохранить, и при необходимости загрузить.
2 tysson
Часом не тот же случай?
Точка с запятой. А вообще любой csv можно открыть блокнотом и посмотреть, какие используются разделители... бо разные могут быть.
Ковыряем :)
Да там уже разобрались - 301 редирект на одной странице, а на вторую и так ссылки были видны. Только автор почему то пока не отвечает...
Спасибо за отзыв :) Теперь я понимаю, почему прогу рекомендую профессионалы :)
Постараемся сделать.
Sterh добавил 21.11.2011 в 14:10
Тоже на рекорд идете? :)
Учить теорию.
Тоже УРЛ в личку попрошу
2 Gal262
Так же, УРЛ в личку будьте добры
А навигация это не ссылки? Конечно учитывает.
Доброй ночи :)
Вообще действительно, в выходные люди отдыхают обычно.
Как правило у форумов страниц много больше. чем ожидается. Позакрывайте в настройках все профили и другие служебные ссылки - будет ближе к реальности.
Линкоскоп тоже не плохая программа. Единственное я не нашел у них комментариев по какой формуле они считают. Ну и суди по комментам на форуме ребята наступают сейчас на те же грабли, шишки от которых у нас уже зажили :) А так - удачи им. Здоровая конкуренция это хороший стимул к развитию.
Программа НЕ УМЕЕТ ПРИДУМЫВАТЬ ссылки. Все что нашла - всё Ваше :) И руками код смотреть не обязательно. Двойной клик по по "WTF?" строке и увидите все входящие и исходящие ссылки данной страницы.
И еще. Не стоит оценивать потенциальный вес страницы только по количеству доноров. Можно и одной ссылкой передать столько веса, что мама не горюй, а можно и кучей доноров не отдать ничего. Внутреннее ссылочное сайта, особенно многостраничного, довольно сложная система, понять которую (в смысле уложить в голове что, как, откуда и почему) далеко не всегда представляется возможным. Собственно поэтому программа и создавалась - что бы не ломать голову, а увидеть своими глазами.
ЗЫ: По поводу технических ошибок - отправил все программисту. Как дойдет до сети - глянет (таки выходные все таки).
Примерно понятно. Прога такую схему не отработает. Программист озадачился )
Весьма "информативная" картинка... Киньте урл в личку, и с каким настройками парсили. На других сайта ошибка повторяется?
Программа путешествует по всем ссылкам, которые находит. Если это интернет магазин, то учтет все ссылки с превьюшек на большие картинки, все ссылки сортировок и т.д. В этом и плюс и минус программы. Минус - парсит и то, что не нужно. Плюс - показывает, что формируются ненужные страницы. Ведь сортировка по цене, к примеру, может создать две дополнительные страницы со 100% дублирующим контентом. Поисковики такие страницы могут и не загрузить, а могут и зафильтровать, при чем зафильтруют совсем не ту копию, которую продвигаете :)
А поподробнее можно? Она начинает парсить, а потом вылетает? Или вылетает сразу? Выдает какую-то ошибку?
Вобщем опишите пожалуйста проблему чуть подробнее, так сложно даже предположить причину.
Не понял. Вы хотите запретить к индексации ссылку из меню, при этом что бы программа все равно прошла по этой ссылке и спарсила страницы?