http://www.nulled.cc/threads/8163/ Вот темка с софтом по этому вопросу.
А зря. Для мелких сайтов удобно. По 300р продавайте её, на фоне 2.0 - будет нормальная цена, типа демки.
Странно 1.8 просканил 2 сайта, потом запускаю 2.0 она предлагает удалить 2 базы к которым нету проектов, а это те сайты что в 1.8 сканил - она по идее вообще не должна её замечать - базы несовместимы совершенно.
1.8.х покупай она 600р стоит.
Это тоже самое. Вон в антигейте, чтобы получить инвайт вроде надо 10 центов заплатить, и этот инвайт можно тому кому считаешь нужным, а потом иметь отчисления с этого. А тут возврат денег сразу.
Зачем вам что-то платить? Всё равно же возвращать будете? И покупатель будет платить вам и получать программу, а не реселлер её будет продавать. Число копий тоже неограниченно по идее рынком. Так что не вижу смысла в резервировании денег у вас, это только продажи ограничит.
Вообще разъясните мне по юзер агентам, я что-то запутался. Изначально я просил ввести юзер агент Яндекс, чтобы прога сканировала то что отдаётся яндексу в случае клоакинга к примеру, для гугла аналогично. Без учёта что там указано в роботсе. Т.е. - стоит роботс не учитывать и юзерагент яндекс или гугл.. Если указать юзер-агент программы - то получишь то что получает обычный юзер.Но если указать User-Agent: * - то что в логах сервера отобразится?
Кстати, там число 30 выставлено потоков, но оно редактируемо - если я 100 выставлю - скан пойдёт в 100 потоков?
Галку снимай, учитывать роботс - и он учитываться не будет.
Это уже от настроек сервера зависит и его мощности. Если сочтёт что это атака или нагрузка повышенная будет, то заблокирует доступ. Я одни сайт клиентский не мог давно ещё просканить, и стал просить задержку ввести, первый раз смог той версией что зимой тестилась, но там только сканер был. А текущая нормально берёт.
У меня кстати тоже есть потери страниц. Сейчас посмотрел, список урлов был 2509, а прога нашла 2385. А на другом тестовом сайте, нормально всё. Но это не критично особо, так что я особо не заморочился, сколько нашла столько нашла. А 1.8. на этом же сайте нашла 2365. Так что не очень уверен что это с потоками связано, 1.8. сканилась в 1 поток - задержка 2 сек. А 2.0 30 потоков задержка 500мс, правда потом ещё куча досканов битых ссылок было. Другой сайт, 1.8 = 2сек, 1 поток, нашла 2805 страниц, 2.0 2894 = 500мс, 30 потоков. Всего было 2892. Правда такая вещь - скажем в результатах написано 3 битые, нажимаю на эту строчку - открывается страница - где их штук 20.
Читал отчёт трофименко про кокос, там упомянули о 2к сателлитов - но это же мало. Нужно десятки тысяч.
А ты пробовал скармливать проге xml карту сайта - есть потери страниц в этом случае или нету? И ещё ты не останавливал прогу во время скана? на первых бетках - это приводило к потерям страниц.
Ерунда. Эпоха сеток давно прошла, если несколько сотен клиентов, то только биржи ссылок, никакая сетка это не потянет. Когда-то это было оправдано, когда ссылки работали в полную силу, конкуренция была ниже, клиентов было меньше, сейчас - сетки только часть ссылок компенсируют.