- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
За 3000 сделаю... За меньше лениво...
За proof of concept "тривиального" алгоритма - дорого.
За proof of concept "тривиального" алгоритма - дорого.
Ну что ж, тут как в анекдоте :) Пройдись по базару, посмотри, может, где дешевле :)
Ну что ж, тут как в анекдоте :) Пройдись по базару, посмотри, может, где дешевле :)
сам сделаю, в общем уже понятно как оно должно работать
сам сделаю, в общем уже понятно как оно должно работать
Это правильно!
Для начала определись с тем, что ты будешь ставить в соответствие поисковому ключу.
Потом реши, как будешь организовывать хранилище ключей.
Возможно, в узлах должны храниться какие-то характеристики, общие для вложенных узлов (в случае хранения как дерево).
Это правильно!
Для начала определись с тем, что ты будешь ставить в соответствие поисковому ключу.
Потом реши, как будешь организовывать хранилище ключей.
Возможно, в узлах должны храниться какие-то характеристики, общие для вложенных узлов (в случае хранения как дерево).
Ой-й-й-й, тут кажись граничные условия не ставили, а вдруг челу был нужен полноценный regexp - тады только перебор :). Если же просто найти все с произвольным окончанием - то задача для студента 2 курса. Главное городить самому особо ничего не надо, берем BerkeleyDB v.1.85 (она не коммерческая), строим BTREE. Для поиска используем установку курсора на первое соответствующее, далее перебором со сравнением на превышение. Таким образом еще в 1982 году работал SMTP агент, под названием IDA Sendmail (почти обычный сендмаил, но с использованием шаблонов для подмены адресов и прочими "дырявыми" бантиками) Легкий тормоз будет обнаружен на шаблонах типа "a*", в остальном - свистит как пулемет. :)
Если это то, что нада - готов получить свои $500 с фрагментом реализации из рамблера образца 1996г.
Ой-й-й-й, тут кажись граничные условия не ставили, а вдруг челу был нужен полноценный regexp - тады только перебор :). Если же просто найти все с произвольным окончанием - то задача для студента 2 курса. Главное городить самому особо ничего не надо, берем BerkeleyDB v.1.85 (она не коммерческая), строим BTREE. Для поиска используем установку курсора на первое соответствующее, далее перебором со сравнением на превышение. Таким образом еще в 1982 году работал SMTP агент, под названием IDA Sendmail (почти обычный сендмаил, но с использованием шаблонов для подмены адресов и прочими "дырявыми" бантиками) Легкий тормоз будет обнаружен на шаблонах типа "a*", в остальном - свистит как пулемет. :)
Если это то, что нада - готов получить свои $500 с фрагментом реализации из рамблера образца 1996г.
а на шаблонах типа "*ll*wo*" для поиска "helloworld" какой тормоз будет ? :)
реально через suffix array решается, может что-то более эффективное есть, я не знаю.
а на шаблонах типа "*ll*wo*" для поиска "helloworld" какой тормоз будет ? :)
реально через suffix array решается, может что-то более эффективное есть, я не знаю.
Ну хорошо :) ну а на шаблоне типа "*" для поиска "бабушка" наверное будет еще хуже :) . Вы же всетаки что-то знаете о том, что ищите. Если плохо знаете - то уж
grep -i [regexp] везде
работать будет долго, но надежно. Окружающий мир все равно является поиском компромисов - хотим того или нет. Обычно можно (в 90%)сформулировать некоторые допустимые ограничения на синтаксис, дабы не терять производительность - например, построить 2 индекса, перевернув во втором слова. Полного решения не даст (и думаю в общем случае задача плохо выполнима)
Кстати, можно представить сколько мусора Вы соберете на многомиллионной базе слов по Вашей маске - разгребать дольше будете
Короче, я же написал - смотря что надо :) Кстати, 100 млн массив слов по 128 символов - это 1GB (в современных условиях в мозги влезет вместе с доп. информацией)
Ну хорошо :) ну а на шаблоне типа "*" для поиска "бабушка" наверное будет еще хуже :) . Вы же всетаки что-то знаете о том, что ищите. Если плохо знаете - то уж
grep -i [regexp] везде
для * даже grep не нужен - head достаточно
а grep - это и есть тривиальное решение за 3000 - выделенный сервер поставить :)
Кстати, 100 млн массив слов по 128 символов - это 1GB (в современных условиях в мозги влезет вместе с доп. информацией)
13Gb
...готов получить свои $500 с фрагментом реализации из рамблера образца 1996г.
Димыч, понимаешь, тут ить еще и проблема вычитывания индекса стоит... А это уже чуток другие объемы!
для * даже grep не нужен - head достаточно
а grep - это и есть тривиальное решение за 3000 - выделенный сервер поставить :)
13Gb
Упс... пардон, нули считать разучился :)... Про grep я образно (кстати в быту молодости видал реляционную субд с классическим функционалом, включая простенький SQL, исполненную исключительно на grep, awk и иже с ними. Во как в жизни бывает :) )
Димыч, понимаешь, тут ить еще и проблема вычитывания индекса стоит... А это уже чуток другие объемы!
Ладно, уболтал, не буду сшибать расценки. Три, так три