Вышел SearchInform 2.0.

W
На сайте с 23.09.2004
Offline
40
#61
!Иван FXS:
- а что, запускать "один запрос на 2000-3000 слов" и потом разбивать его результаты на 1000 частей - это с какой-то точки зрения более удобно (быстро, эффективно), чем производить 1000 "независимых" поисков (по 2-3 лова)?

ну, во-первых, может быть элементарное пересечение по словам (хотя 1000 запросов, наверное, еще маловат выгрыш) - меньше извлекать с диска.

во-вторых, коннект(ы) на базу или ее аналог - либо уменьшить, либо, по крайней мере, предсказывать

связанное со вторым - выделение места в оперативной памяти при слиянии векторов

L
На сайте с 02.05.2004
Offline
35
#62
Leo www.searchinform.ru (www.searchinform.ru)
L
На сайте с 02.05.2004
Offline
35
#63

Господа у кого в Москве трафик в инет неоплачиваемый -- типа стрима?

Я бы накачал гиг 300 в архиве на свое серваке в америке и дал бы линки скачать а потом бы с удовольствием приехал в гости с винтом на 300 гиг

Качать планирую из инет -- например все софт директории или все бибьлиотеки и т.д., а далее архивировать и только htm без графики

Реально 300 гиг архивов это будет более полутра терра если разорхивировано инфы и порядка 300-500 млн страниц.

Очень хочу прогнать такой тест чтобы испытать на прочность -- потом готов запостить сюда результаты.

Кто готов помочь -- пишите

leo собака softinform точка com

http://www.searchinform.com/site/ru/index.htm

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий