exp131

Рейтинг
69
Регистрация
26.05.2010
Str256:
Добавляется дополнительный столбик с новыми значениями. Но, почему тогда при клике на 1-й столбец нет отката числа ссылок на базовые значения по которым рассчитан 1-й столбик? Было бы очень удобно, если бы программа запоминала расчёт веса - т.е. если веса стали меньше чем раньше, то просто кликаешь на нужный столбик с лучшим результатом и начинаешь заново, а ненужные столбики удаляешь - в контексте столбика - нажать удалить.

Ничего не понял. Что куда-откуда удалять вписывать???

Str256:
А почему логичнее? Есть 2 столбика: Ссылка | Ссылка с ошибкой. Логичнее, если - нажав на "показать урл" в каждом столбике - будут открываться разные страницы. В 1-м случае - где стоит ссылка, во 2-м - та страница которая открывается при клике на неё.

Это можно сделать. Будет в следующей версии.

Str256:
Было бы неплохо. И как вариант, не со всех, а с тех страниц которые будут выделены. И тоже самое с добавлением - 1 раз указываешь ссылку и она добавляется на пачку страниц.

Ещё был разговор, что в программе можно будет добавлять новые страницы - а затем включать их в схему перелинковки с помощью ссылок - и сразу оценивать потенциальные изменения весов. Это когда будет?

Групповое удаление страниц будет уже в первой ветке, но выбор какие страницы удалять/добавлять уже во-второй.

Str256:
Такой вопрос. Как отфильтровать страницы nnnn.jpg? В фильтре указываю .jpg - всё равно считывает. Если указываю *.jpg вылетает с ошибкой - в чём ошибка не пишет.

Правильно .jpg, символ * - программа не поймет. Если несмотря на это все равно сканирует - напишите на почту сайт на котором возникает эта проблема, я разберусь.

exp131 добавил 15.11.2010 в 14:12

Str256:
Может не придумывает, а додумывает:) скажем есть в коде .../decol/ а битую ссылку она находит /decoldecol/

Если в коде есть .../decol/ (именно 3 точки до слэша) то это неверная ссылка и программа правильно определяет ее как битую.

Str256:
А вот это:

В какой версии?

С версии 1.6

Str256:
Какие планируются ещё внести изменения до версии 2.0?

Основное: работа с большими сайтми, многопоточность, возможность приостановить и возобновить сканирование.

Полный список будет позже.

Str256:
P.S. Ещё такой вопрос. Скажем сайт 2000 страниц. Есть сквозное меню, я хочу в нём заблокировать ссылки чтобы посмотреть перераспределение весов. Т.е как можно удалить определённую ссылку со всех 2000 страниц разом, в программе?

Пока никак. Но если хотите я могу добавить такую возможность (причем в первой ветке программы).

Str256:

Ещё вот что.
1. Кодировка сайта 1251. Просканировался и прочее всё нормально, но почему-то карта сайта в HTML была создана не в 1251, а в уникоде.

Это не баг, а фича. В будущих версиях можно будет выбрать кодировку. Не все сразу.

Str256:
2. Битые ссылки. Открыть урл - в столбике "ссылка" - открывается урл не страницы где эта ссылка находится, а той куда она ведёт, т.е. 404. Это неправильно.

Почему же? Ведь логичнее посмотреть почему ссылка битая а не страницу где она стоит. Тем более страница указана в таблице битый ссылок.

Str256:
3. При поиске в коде страницы из столбика "ссылка" - нет ссылок из столбика "ссылка с ошибкой". Непонятно как программа нашла их. Можно ли сделать, чтобы показывался участок кода, например где эта битая ссылка стоит?

Раз программа их нашла, значит они где-то есть. Поверьте мне - она не умеет придумывать ссылки :). А если серьезно, то я пока не планировал такую функцию, но я подумаю об этом и если сообщество поддержит - добавлю в план реализации.

alekzey:
И какая же будет цена/доплата?

О ценах я сообщу после окончания бета-тестирования.

exp131, то есть в марте ждать?

Думаю что раньше.

Str256:
А с чем связано изменение ценовой политики? Летом вы писали другое...

Прошу прощения, за двусмысленную формулировку. Подразумевалось, что обновления будут бесплатными до 2-й версии не включая ее саму, т.е. все версии первой ветки. Сама же вторая версия будет использовать другой механизм хранения и обработки данных (над которым работаю сейчас), что позволит обрабатывать большие сайты (порядка 4 млн. ссылок). Так же планируется реализация многопоточного сканирования и других функций обсуждаемых в этом форуме.

Поэтому стоимость 2-й версии будет выше чем первой. Тем не менее для тех, кто уже является обладателем первой версии, предусмотренны значительные скидки.

Kavabata:
я вот бы заплатил бы еще чего нибудь. но хотелось бы реально анализировать большие сайты. Я вот сейчас реально обломался в плане покупки. Мне приходиться работать с большими СМИ. Получается что скачиваешь по два дня, а потом на выходе получаешь сообщение об ошибке. Облом не в стоимости программке, она дешевая. А в том, что реально время потраченного жалко на безнадежную выкачку сайта. Было бы по крайней мере бы утешительно, если бы скачалось 17 тысяч страниц например и ты бы мог хоть их проанализировать.

Собственно ради обработки больших объемов данных и разрабатывается вторая версия.

tokareff:
Когда увидит свет вторая версия?

Начало бета-тестрования планируется в конце декабря - начале января.

tokareff:
Если купить программу сейчас, следующая версия достанется бесплатно в виде обновления?

Нет. Обновление до второй версии будет платное. Но те, кто купил первую версию получат существенные скидки.

brainiac:
Планируется ли выпуск версии под Mac OS X?

Пока не планируется.

Vasar:
Введите пожалуйста опцию, что можно было вырезать меню сайт из получения данных. Я думаю можно реализовать её просто не учитывать дублирующиеся ссылки на всех страницах (те. если ссылка присутствует на всех страницах сайта, это меню).

А то получается если на сайте 1000 страница, то получится, что на главную ведут 1000 страниц, хотя поисковик вырезает навигацию по идее.

Меню у всех разное и чтобы правильно его не вырежешь, даже поисковики пока не обладают искусственным интеллектом чтобы это делать.

Что вам мешает поставить меню в <noindex></noindex>?

workint:
Я готов потратить сколько угодно денег, чтобы вывести сайт по ВЧ.
...
Я бы с удовольствием стал инвестором такого проекта, только это уже другая тема. Кстати о каких деньгах идет речь? Можно в личку?

Хм. Почему нет? Только возникает вопрос: как определить величину передаваемого веса ссылкой с анкором по тексту этого анкора?

По поводу объема вложений - честно не знаю, нужно сначала определить объем работ. Но можно вернуться к этому разговору после выхода второй версии.

Kavabata:
Скажите пожалуйста, а большие сайты есть возможность спарсить определенное количество страниц. А то я купил программу. Потратил два дня на парсинг. Не выключал комп. И ошибка возникла на 30K. В приниципе для больших сайтов не обязательно все выкачать, важно просто какую то выборку.


(сорри если где то есть ответ, нет реально времени просто все прочитать)

Это обсуждается со времени первого релиза программы :)

30К страниц - это рекорд. Видимо у вас очень мощный компьютер. Я сейчас работаю над второй версией программы в которой уже не будет проблем с размером сайта. На данный момент я не вижу смысла добавлять ограничения по страницам как раз из-за этого, к тому же если не отсканировать весь сайт то значения весов будут неверны.

На данный момент вы можете использовать для ваших целей список исключений для ограничения области сканирования (Настройки->Опции). Например добавление исключения: /files/ - запретит сканировать все страницы в ссылке которой есть это выражение.

А Вы разве не хотите больше зарабатывать? Эту программу будут покупать многие Seo компании. Сколько стоит к примеру CS Sapemaster или C Yazzle? Раз уж Вы взялись за создание программного обеспечения, то можно потратить времени и сил, чтобы создать действительно уникальный и качественный инструмент для России. Как вы знаете, на данный момент аналогов такого ПО в России еще нет.

"Денег много не бывает". Но я соизмеряю затраты труда и возможную отдачу. Еще раз повторяю разработка и реализация подобного алгоритма потребует очень много трудозатрат, и в одиночку я это просто не потяну, значит проект потребует дополнительных инвестиций (кстати вы готовы стать инвестором?). А с точки зрения реализации такого продука - все достаточно сомнительно. Хорошо если его купят 2-3 крупные компании, но на этом может все и закончится. Вот лично вы сколько готовы потратить на подобное ПО?

Всего: 467