skype: martinroot
icq: 226619
или в личку.
Цены зависят от качества доменов, поэтому изначально писать не стал. Рассматриваю варианты в диапазоне 5-30$, в зависимости от домена готов платить и больше. Ищу постоянных реселеров для сотрудничества. Ближайших два месяца готов забрать примерно 250-350 шт. доменов с тиц от 10, рассматриваю как покупку 1 шт., так и 10, 100 шт.
У меня есть 3-х летний домен по смежной тематике с историей продвижения. ТС, если еще актуально - пишите в личку. Готов отдать за 500$ - url по запросу в личку!
Ну что за стервятники. Я мимо проходил. Всегда очень сдержан в высказываниях. Но тут зацепило. Да сайт у ребят из Тулы возможно и не является "Рабочим". Но Вам Yeugeny могу сказать, что не видите в в собственно глазу бревна. http://www.devnotes.ru Ваше? шик! Супер сайт. Как креативщик с 5 летним стажем могу сказать, что есть изюминка в нем. Могу даже по сайту половину жизни вашей рассказать. Долгий путь от и техническое образование, Если бы я выпустил на обозрение такой сайт вышедший из под моего ножа... Нет даже и думать не хочу. Короче возмутили. Фу. Бууэ) Если что, то могу при необходимости расписать на вами сделанном сайте более значительные ошибки, нежели вы ребятам в показуху ставите.
Тематика текстов? Если всять текст, например " В городе стояли большие часы. Эти часы были созданны 2001 году. У часов очень сложный механизм." или "audi TT - двигатель V6. рабочий объем - 1500. Разгон до 100км/ч. - 3,4с." - то мысль и тему выдельть можно, если же речь идет скажем о произведении Ф. Ницше, с различными, сложнейшими смысловыми конструкциями, то смысл выделить практически не возможно... Поэтому можно объедитять тексты по тематики на уровне семантических признаков... В данный момент признаков 260, скажем у нас получалось стоить граф из хужожественных произведений в которых есть главные герои, т.е. ВЫявлять силу связей между персонажами произведения...
Тупиковая ветка - это понятно и не оспаривается... Под семантическим *ядром подразумевается способнасть создавать синтез из русской морфологии, синтаксиса, постоение предложения и семантических (животные, растения, материалы, и т.д.) признаков, выявление связей между словами на основе толкового словоря... И конечноже не ставиться цель создания IO... Задача тривиальней - переработка знаний из форумов и выцепление неких классов задач....
Почему этот вопрос возник сейчас
1) проект был начат как автоматическая обработка литературы (постоение графов и связей между объектами в летературном произведении) для интернета он не проектировался
2) В связи со спецефичностью полученных результатов, и 10-20% ошибки нашего ядра... Оно стало пригодно для спицефичных целлей например выбором модуля....
1.Глупость - согласен, но я не мальчик!!! (электропочта)
2. База есть - генерировалась 2 дня. - результат впечатлил
3. по группе индексов вычисляем "координату" запрашиваемых фраз превращаем 1байт(3символа) - в 3байта(3символа), определяем алгоритм, которым, была заархивированна фраза и подготавливаем все для выдачи результат )). Может еще и исодник прислать? А?
4. Бот может проверить документ снизу , с верху если размер такой же,то замем качать все, и переходим по ссылке внутрь сата и т.д. Вот и с экономили...
Вот так за 10мин. можно разочероваться в человеке... Ты к ним с идеей, открытой душой, а тебя взяли и растоптали... ;)
snoopckuu,
1) В байте 256 символов, для написания смвола, без учета регистра и в силу схожести англ. и русского языка + знаки препинания и пробел нам нужно 50 символов, => в байте мы можем хранить 2-5 символов
2) Если на моем компе, есть база 10 000 000 различных комбинация слов, то передать word-документ можно 1-10ю байтами
3) Каждому сайту(документу) в соответсвие ставятся присущие ему комбинации слов группа цифр, у каждого пришедшего запроса есть своя уникальная группа индексов, исходя из чего поиск происходит не по словам а по индексам(числам), что намного быстрее + приминение для поиска бинарного дерева не требует разархивацию данных, это нужно тогда, когда запрос найден и данные разархивируютя в частом порядке + спользование алгоритма определения нечетких дубликатов можно так же с_ЭкОнОмИтЬ на времени и занимаемом обЪеме
4)Бот такЖе экономит трафик аналогичным образом, что позволят индексацию проводить быстрее и с меньшим периодом времени.
Фу.... Все.... Ls -al :)
ruswebart.com, псибо за линки!!!
Для поисковика со своей базой, нужно в первую очередь решить задачу 100тб. документов, этот этап для нас, уже пройден разработан алгоритм храненения этого 500гб-1000гб.~100Тр. Сейчас решается проблема корректного разархивирования... Все очень интересно, но возникающих проблем очень много.
Рустем,
Насчет финансирования - все ок!! )) Главное, чтоб народ думал, и создавал... ЦенНна идея... ))
нет, нет... Я совсем не обижаюсь.... Так, просто улыбаюсь... Если нормальных линков не получу, я не расстроюсь... чесно слово!!! 🤣