Google Mini

12
A
На сайте с 23.10.2003
Offline
196
2575

Гугл стал меньше - Google mini. Теперь за $4995 можно пощупать все прелести поисковых технологий Google :)

По-моему очень и очень интересный продукт. Если учесть что это вместе с сервером и годом техподдержки, получается выгоднее mnogosearch'ей, dataparksearch'ей и тому подобного. И уж куда более быстрей и релевантней.

андроид ТВ (http://qway.com.ua/android_tv) и экшн камеры (qway.com.ua/action-cameras) в Украине.
Z
На сайте с 03.01.2004
Offline
32
#1

Сомнительно. С ограничением в 50000 документов разница в быстродействиии будет незначительна. Более того за указаную сумму вы сможете купить железо помощнее и год-два поддержки разработчиков mnogosearch или dataparksearch, без всяких ограничений на число документов :)

A
На сайте с 23.10.2003
Offline
196
#2

http://www.mnogosearch.ru/support.html + оплата специалисту за настройку, так как панели управления. Сомневаюсь, что выйдет дешевле. Да, ограничение немного огорчает. Но много ли Вы видели нормальных сайтов с таким количеством документов? :)

VT
На сайте с 27.01.2001
Offline
130
#3
Сомнительно. С ограничением в 50000 документов разница в быстродействиии будет незначительна.

Да, 50 тысяч - это не очень много.

Более того за указаную сумму вы сможете купить железо помощнее и год-два поддержки разработчиков mnogosearch или dataparksearch, без всяких ограничений на число документов

Нет, они же построены на использовании баз данных, поэтому ограничения будут уже на объеме в несколько миллионов документов.

Z
На сайте с 03.01.2004
Offline
32
#4

absolut, любой нормальный форум имеет больше страниц, для этого, к примеру, счётчик сообщений уже за 800 тыс. перевалил.

Vyacheslav Tikhonov, несколько миллионов эт много больше 50 тыс. :)

I
На сайте с 15.12.2000
Offline
80
#5
Как писал Vyacheslav Tikhonov

Да, 50 тысяч - это не очень много.

Любому коммерческому сайту с базой данных нужно больше: classifieds, auto, realty, job и т.д. и т.п.

50 тысяч это обычно еле-еле и уж конечно БЕЗ архива. То есть, скажем, нельзя будет узнать, давал ли данный человек резюме год назад.

A
На сайте с 23.10.2003
Offline
196
#6

В продолжении темы, что же именно представляет из себя сам сервер - http://www.anandtech.com/IT/showdoc.aspx?i=2523&p=3

Для меня было сюрпризом, что сервер работает на сервере Gigabyte с процессором Pentium III-S 1.26Ghz, с 2Gb PC133 памяти и винчестером Seagate. Совсем такой обыденный набор комплектующих. Судя по всему похожие сервера они используют и для большого гугла. Только их очень много :)

I
На сайте с 15.12.2000
Offline
80
#7
absolut:
В продолжении темы, что же именно представляет из себя сам сервер - http://www.anandtech.com/IT/showdoc.aspx?i=2523&p=3
сервер работает на сервере Gigabyte с процессором Pentium III-S 1.26Ghz, с 2Gb PC133 памяти и винчестером Seagate

Вообще говоря, для 50 тысяч документов должен мог бы подойти и IBM PC AT 386 MHz, с 33 мегабайтами памяти. Масса софта (включая наш) работали в начале 90-х на таком железе и вполне держали базы по 100 тысяч документов со скоростью ответа до секунды на любой запрос.

Что касается параллелизации исполнения запроса на рядовых компьютерах, то пионером здесь была Inktomi в 1996 году.

Я не понимаю, что может вызвать восхищение в этом (судя по характеристикам) исключительно слабо написанном софте.

Z
На сайте с 03.01.2004
Offline
32
#8

Google mini уже поддерживает до 100 тыс. документов а одной коллеции.

Но не в этом суть, главное сколько одновременных запросов можно выполнять на этом железе без заметного торможения. Будет ли Яндекс Сервер на 386-м компе дышать при 20-ти одновременных запросах очень сомнительно.

antono
На сайте с 12.07.2004
Offline
304
#9
iseg:
........ должен мог бы подойти и IBM PC AT 386 MHz, с 33 мегабайтами памяти........

не в тему, но такого компьютеро не существовало никогда.

IBM PC AT 80386, 33 MHz, с 8 мегабайтами памяти более близко к истине

I
На сайте с 15.12.2000
Offline
80
#10
antono:
8 мегабайтами памяти более близко к истине

Спасибо за поправку.

Примем 100 тысяч документов по 10к текста в среднем,

полнотекстовый индекс ~30%, итого весь индекс занимает 300 мегабайт, словарь ~3-5% то есть мегабайт 10-15. Т.о. полное кеширование словаря наступает уже при объеме памяти в районе 32-64 мегабайт. Но это и не требовалось тогда: для одного поиска нужно грубо 1-2 обращения к диску, то есть даже при тех еще скоростях дискового seek-а можно было укладываться в несколько запроов в секунду.

В общем ничто не опровергает теорему существования. Даже в 1993 году.

Еще раз повторюсь, производительность, указываемая в выходных данных обсуждаемого продукта, вызывала и продолжает (даже с стотысячедокументным пределом) вызывать много вопросов.

По моим ощущениям 1 современный сервер должен уверенно держать (грубо) 10 миллионов документов. (тем более в корпоративных сетях не бывает серьезного потока запросов).

Иными словами: при равенстве цен на 1 сервер (на самом деле G.Mini дороже в бешеные разы) можно вместо установки 100 G/Mini ставить 1 Y/Server

Для справки назову текущие наши цифры по Y.Server-у, стоящему на разных проектах

Y.Почта: ~50 млн документов на 1 машину (в 4 шардах, там маленькие документы и мало запросов)

Y.ППБ (поиск по блогам): ~6 млн документов на 1 машину

Важно: я не считаю Y.Сервер идеально супер-вылизанным и супер-производительным продуктом.

Цифры, которые мне гворили в Y! (по ядру бывего Inktomi), да и цифры Fast-а (Fast Data Search) как минимум НЕ ХУЖЕ (точнее несколько лучше наших) по производительности и индексации и поиска. (хотя я и не считаю, что это прирост в критической зоне).

Но! то, что заявляется в G/Mini - это какой-то ужас: разница в 100 раз (!) -- не нормальна: здесь что-то не так.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий