- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Гугл стал меньше - Google mini. Теперь за $4995 можно пощупать все прелести поисковых технологий Google :)
По-моему очень и очень интересный продукт. Если учесть что это вместе с сервером и годом техподдержки, получается выгоднее mnogosearch'ей, dataparksearch'ей и тому подобного. И уж куда более быстрей и релевантней.
Сомнительно. С ограничением в 50000 документов разница в быстродействиии будет незначительна. Более того за указаную сумму вы сможете купить железо помощнее и год-два поддержки разработчиков mnogosearch или dataparksearch, без всяких ограничений на число документов :)
http://www.mnogosearch.ru/support.html + оплата специалисту за настройку, так как панели управления. Сомневаюсь, что выйдет дешевле. Да, ограничение немного огорчает. Но много ли Вы видели нормальных сайтов с таким количеством документов? :)
Да, 50 тысяч - это не очень много.
Нет, они же построены на использовании баз данных, поэтому ограничения будут уже на объеме в несколько миллионов документов.
absolut, любой нормальный форум имеет больше страниц, для этого, к примеру, счётчик сообщений уже за 800 тыс. перевалил.
Vyacheslav Tikhonov, несколько миллионов эт много больше 50 тыс. :)
Да, 50 тысяч - это не очень много.
Любому коммерческому сайту с базой данных нужно больше: classifieds, auto, realty, job и т.д. и т.п.
50 тысяч это обычно еле-еле и уж конечно БЕЗ архива. То есть, скажем, нельзя будет узнать, давал ли данный человек резюме год назад.
В продолжении темы, что же именно представляет из себя сам сервер - http://www.anandtech.com/IT/showdoc.aspx?i=2523&p=3
Для меня было сюрпризом, что сервер работает на сервере Gigabyte с процессором Pentium III-S 1.26Ghz, с 2Gb PC133 памяти и винчестером Seagate. Совсем такой обыденный набор комплектующих. Судя по всему похожие сервера они используют и для большого гугла. Только их очень много :)
В продолжении темы, что же именно представляет из себя сам сервер - http://www.anandtech.com/IT/showdoc.aspx?i=2523&p=3
сервер работает на сервере Gigabyte с процессором Pentium III-S 1.26Ghz, с 2Gb PC133 памяти и винчестером Seagate
Вообще говоря, для 50 тысяч документов должен мог бы подойти и IBM PC AT 386 MHz, с 33 мегабайтами памяти. Масса софта (включая наш) работали в начале 90-х на таком железе и вполне держали базы по 100 тысяч документов со скоростью ответа до секунды на любой запрос.
Что касается параллелизации исполнения запроса на рядовых компьютерах, то пионером здесь была Inktomi в 1996 году.
Я не понимаю, что может вызвать восхищение в этом (судя по характеристикам) исключительно слабо написанном софте.
Google mini уже поддерживает до 100 тыс. документов а одной коллеции.
Но не в этом суть, главное сколько одновременных запросов можно выполнять на этом железе без заметного торможения. Будет ли Яндекс Сервер на 386-м компе дышать при 20-ти одновременных запросах очень сомнительно.
........ должен мог бы подойти и IBM PC AT 386 MHz, с 33 мегабайтами памяти........
не в тему, но такого компьютеро не существовало никогда.
IBM PC AT 80386, 33 MHz, с 8 мегабайтами памяти более близко к истине
8 мегабайтами памяти более близко к истине
Спасибо за поправку.
Примем 100 тысяч документов по 10к текста в среднем,
полнотекстовый индекс ~30%, итого весь индекс занимает 300 мегабайт, словарь ~3-5% то есть мегабайт 10-15. Т.о. полное кеширование словаря наступает уже при объеме памяти в районе 32-64 мегабайт. Но это и не требовалось тогда: для одного поиска нужно грубо 1-2 обращения к диску, то есть даже при тех еще скоростях дискового seek-а можно было укладываться в несколько запроов в секунду.
В общем ничто не опровергает теорему существования. Даже в 1993 году.
Еще раз повторюсь, производительность, указываемая в выходных данных обсуждаемого продукта, вызывала и продолжает (даже с стотысячедокументным пределом) вызывать много вопросов.
По моим ощущениям 1 современный сервер должен уверенно держать (грубо) 10 миллионов документов. (тем более в корпоративных сетях не бывает серьезного потока запросов).
Иными словами: при равенстве цен на 1 сервер (на самом деле G.Mini дороже в бешеные разы) можно вместо установки 100 G/Mini ставить 1 Y/Server
Для справки назову текущие наши цифры по Y.Server-у, стоящему на разных проектах
Y.Почта: ~50 млн документов на 1 машину (в 4 шардах, там маленькие документы и мало запросов)
Y.ППБ (поиск по блогам): ~6 млн документов на 1 машину
Важно: я не считаю Y.Сервер идеально супер-вылизанным и супер-производительным продуктом.
Цифры, которые мне гворили в Y! (по ядру бывего Inktomi), да и цифры Fast-а (Fast Data Search) как минимум НЕ ХУЖЕ (точнее несколько лучше наших) по производительности и индексации и поиска. (хотя я и не считаю, что это прирост в критической зоне).
Но! то, что заявляется в G/Mini - это какой-то ужас: разница в 100 раз (!) -- не нормальна: здесь что-то не так.