Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет

http://www.nulled.cc/threads/8163/ Вот темка с софтом по этому вопросу.

Sterh:
Больше не продается и не поддерживается (т.е. работать будет, но обновляться уже нет)

А зря. Для мелких сайтов удобно. По 300р продавайте её, на фоне 2.0 - будет нормальная цена, типа демки.

Странно 1.8 просканил 2 сайта, потом запускаю 2.0 она предлагает удалить 2 базы к которым нету проектов, а это те сайты что в 1.8 сканил - она по идее вообще не должна её замечать - базы несовместимы совершенно.

KSin:
Скажите, ближе к новому году будут ли скидки на первую лицензию программы? Сильно вроде в ней не нуждаюсь, но со скидкой купил бы - пускай будет Тем более, что народ вроде хвалит, в целом.

1.8.х покупай она 600р стоит.

Sterh:
Реферальная программа мало эффективна. Поэтому сделали реселлерскую программу.

Это тоже самое. Вон в антигейте, чтобы получить инвайт вроде надо 10 центов заплатить, и этот инвайт можно тому кому считаешь нужным, а потом иметь отчисления с этого. А тут возврат денег сразу.

Зачем вам что-то платить? Всё равно же возвращать будете? И покупатель будет платить вам и получать программу, а не реселлер её будет продавать. Число копий тоже неограниченно по идее рынком. Так что не вижу смысла в резервировании денег у вас, это только продажи ограничит.

По-умолчанию выбран User-Agent: *

Вообще разъясните мне по юзер агентам, я что-то запутался. Изначально я просил ввести юзер агент Яндекс, чтобы прога сканировала то что отдаётся яндексу в случае клоакинга к примеру, для гугла аналогично. Без учёта что там указано в роботсе. Т.е. - стоит роботс не учитывать и юзерагент яндекс или гугл.. Если указать юзер-агент программы - то получишь то что получает обычный юзер.Но если указать User-Agent: * - то что в логах сервера отобразится?

Кстати, там число 30 выставлено потоков, но оно редактируемо - если я 100 выставлю - скан пойдёт в 100 потоков?

wlad2:
как избавится от страниц закрытых в роботс? они мешают нормально просматривать результат!!

Галку снимай, учитывать роботс - и он учитываться не будет.

burunduk:
правда, парсил всегда без задержек

Это уже от настроек сервера зависит и его мощности. Если сочтёт что это атака или нагрузка повышенная будет, то заблокирует доступ. Я одни сайт клиентский не мог давно ещё просканить, и стал просить задержку ввести, первый раз смог той версией что зимой тестилась, но там только сканер был. А текущая нормально берёт.

burunduk:
если бы она была :)
нет не останавливал

У меня кстати тоже есть потери страниц. Сейчас посмотрел, список урлов был 2509, а прога нашла 2385. А на другом тестовом сайте, нормально всё. Но это не критично особо, так что я особо не заморочился, сколько нашла столько нашла. А 1.8. на этом же сайте нашла 2365. Так что не очень уверен что это с потоками связано, 1.8. сканилась в 1 поток - задержка 2 сек. А 2.0 30 потоков задержка 500мс, правда потом ещё куча досканов битых ссылок было. Другой сайт, 1.8 = 2сек, 1 поток, нашла 2805 страниц, 2.0 2894 = 500мс, 30 потоков. Всего было 2892. Правда такая вещь - скажем в результатах написано 3 битые, нажимаю на эту строчку - открывается страница - где их штук 20.

Lisa:
Есть одна компания, которая говорит, что у нее сетка достаточная, тянет :D

Читал отчёт трофименко про кокос, там упомянули о 2к сателлитов - но это же мало. Нужно десятки тысяч.

burunduk:
нет их там :(
с досканированием всё понятно, наверно стоит после завершения сканирования проверять сколько всего известно уникальных url в ссылках и сколько страниц есть в базе

А ты пробовал скармливать проге xml карту сайта - есть потери страниц в этом случае или нету? И ещё ты не останавливал прогу во время скана? на первых бетках - это приводило к потерям страниц.

jj1981ua:
СЕО конторы давно обзавелись сетками сайтов по разным тематикам. И за бабло клиентов покупаются вечные ссылки на свой сайт, делается редирект. Клиент отпал - редирект сняли. Просто и удобно)

Ерунда. Эпоха сеток давно прошла, если несколько сотен клиентов, то только биржи ссылок, никакая сетка это не потянет. Когда-то это было оправдано, когда ссылки работали в полную силу, конкуренция была ниже, клиентов было меньше, сейчас - сетки только часть ссылок компенсируют.

jj1981ua:
И за бабло клиентов покупаются вечные ссылки на свой сайт, делается редирект. Клиент отпал - редирект сняли. Просто и удобно)
Так работают далеко не все. На склейку месяцы уходят и поведенческие факторы по ним вроде не передаются.
Всего: 15927