Ничего не понял. Что куда-откуда удалять вписывать???
Это можно сделать. Будет в следующей версии.
Групповое удаление страниц будет уже в первой ветке, но выбор какие страницы удалять/добавлять уже во-второй.
Правильно .jpg, символ * - программа не поймет. Если несмотря на это все равно сканирует - напишите на почту сайт на котором возникает эта проблема, я разберусь.
exp131 добавил 15.11.2010 в 14:12
Если в коде есть .../decol/ (именно 3 точки до слэша) то это неверная ссылка и программа правильно определяет ее как битую.
С версии 1.6
Основное: работа с большими сайтми, многопоточность, возможность приостановить и возобновить сканирование.
Полный список будет позже.
Пока никак. Но если хотите я могу добавить такую возможность (причем в первой ветке программы).
Это не баг, а фича. В будущих версиях можно будет выбрать кодировку. Не все сразу.
Почему же? Ведь логичнее посмотреть почему ссылка битая а не страницу где она стоит. Тем более страница указана в таблице битый ссылок.
Раз программа их нашла, значит они где-то есть. Поверьте мне - она не умеет придумывать ссылки :). А если серьезно, то я пока не планировал такую функцию, но я подумаю об этом и если сообщество поддержит - добавлю в план реализации.
О ценах я сообщу после окончания бета-тестирования.
Думаю что раньше.
Прошу прощения, за двусмысленную формулировку. Подразумевалось, что обновления будут бесплатными до 2-й версии не включая ее саму, т.е. все версии первой ветки. Сама же вторая версия будет использовать другой механизм хранения и обработки данных (над которым работаю сейчас), что позволит обрабатывать большие сайты (порядка 4 млн. ссылок). Так же планируется реализация многопоточного сканирования и других функций обсуждаемых в этом форуме.
Поэтому стоимость 2-й версии будет выше чем первой. Тем не менее для тех, кто уже является обладателем первой версии, предусмотренны значительные скидки.
Собственно ради обработки больших объемов данных и разрабатывается вторая версия.
Начало бета-тестрования планируется в конце декабря - начале января.
Нет. Обновление до второй версии будет платное. Но те, кто купил первую версию получат существенные скидки.
Пока не планируется.
Меню у всех разное и чтобы правильно его не вырежешь, даже поисковики пока не обладают искусственным интеллектом чтобы это делать.
Что вам мешает поставить меню в <noindex></noindex>?
Хм. Почему нет? Только возникает вопрос: как определить величину передаваемого веса ссылкой с анкором по тексту этого анкора?
По поводу объема вложений - честно не знаю, нужно сначала определить объем работ. Но можно вернуться к этому разговору после выхода второй версии.
Это обсуждается со времени первого релиза программы :)
30К страниц - это рекорд. Видимо у вас очень мощный компьютер. Я сейчас работаю над второй версией программы в которой уже не будет проблем с размером сайта. На данный момент я не вижу смысла добавлять ограничения по страницам как раз из-за этого, к тому же если не отсканировать весь сайт то значения весов будут неверны.
На данный момент вы можете использовать для ваших целей список исключений для ограничения области сканирования (Настройки->Опции). Например добавление исключения: /files/ - запретит сканировать все страницы в ссылке которой есть это выражение.
"Денег много не бывает". Но я соизмеряю затраты труда и возможную отдачу. Еще раз повторяю разработка и реализация подобного алгоритма потребует очень много трудозатрат, и в одиночку я это просто не потяну, значит проект потребует дополнительных инвестиций (кстати вы готовы стать инвестором?). А с точки зрения реализации такого продука - все достаточно сомнительно. Хорошо если его купят 2-3 крупные компании, но на этом может все и закончится. Вот лично вы сколько готовы потратить на подобное ПО?