- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
- а что, запускать "один запрос на 2000-3000 слов" и потом разбивать его результаты на 1000 частей - это с какой-то точки зрения более удобно (быстро, эффективно), чем производить 1000 "независимых" поисков (по 2-3 лова)?
ну, во-первых, может быть элементарное пересечение по словам (хотя 1000 запросов, наверное, еще маловат выгрыш) - меньше извлекать с диска.
во-вторых, коннект(ы) на базу или ее аналог - либо уменьшить, либо, по крайней мере, предсказывать
связанное со вторым - выделение места в оперативной памяти при слиянии векторов
Тесты уже выложены на сайт.
http://www.searchinform.com/site/ru/main/search-inform-indexing-speed-tests.htm
Leo
---------------
http://www.searchinform.com/site/ru/index.htm
Господа у кого в Москве трафик в инет неоплачиваемый -- типа стрима?
Я бы накачал гиг 300 в архиве на свое серваке в америке и дал бы линки скачать а потом бы с удовольствием приехал в гости с винтом на 300 гиг
Качать планирую из инет -- например все софт директории или все бибьлиотеки и т.д., а далее архивировать и только htm без графики
Реально 300 гиг архивов это будет более полутра терра если разорхивировано инфы и порядка 300-500 млн страниц.
Очень хочу прогнать такой тест чтобы испытать на прочность -- потом готов запостить сюда результаты.
Кто готов помочь -- пишите
leo собака softinform точка com
http://www.searchinform.com/site/ru/index.htm