- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Итак Новая тема.
Пытаемся обсудить проблему создания, необходимости, рентабельности и т.д. Поисковой машины нового поколения.
Вопрос 1 - необходимость.
Уже есть Яндекс, Рамлер и Google. Зачем нужен еще один поисковик?
Чтобы остальные почаще шевелились и поворачивались лицом к народу :)!!!
Попытайтесь сначала обсудить, в чем заключается новость поколения...
Хочу заняться. Бесплатно или почти бесплатно. Вы платите за железо, трафик, админов и т.п.
Опыт создания своего поисковика есть.
Идея новизны поисковика тоже есть.
а может переформулировать вопрос? Чем не устраивают существующие поисковики?
1) оперативность обновлений индекса
Сколько людей столько и требований к поисковым системам.
Начну с себя. Меня например в Яндексе не устраивает сам поиск инфомации. Иногда (чего кривить душой, не всегда) по запросу получаеш информацию не того уровня, что необходимо. Остается впечатление что те ресурсы которые продвигаются в сети тебе навязываются при том что сама ценность информации в них минимальна.
Как такового фильтра на ценность информации не существует.
Я понимаю что оценка ценности информации достаточно сложная задача, но создание машины состоящей из нескольких выполняющих узкую специализацию это возможно.
Спасибо Всем.
Не думал, что достаточно живая тема.
В целом согласен. Но основная проблема здесь, скорее всего, в другом - для определения ценности информации статистические методы, на которых работают современные поисковики, не годятся. То есть частоту термов нельзя использовать в качестве меры их ценности.
Принципы должны быть другие - например, можно использовать лексические цепочки, но для этого уже нужны большие вычислительные ресурсы.
Тут вообще сложно что-то новое придумать - алгоритмы все заезженные. Лечится только увеличением количества серверов :)
а нету такой характеристики у информации. вам эта информация ценна, другому - другая. есть
1) актуальность
2) релевантность
3) достоверность
4) объективность
вот лично мне кажется, что в плане актуальности ситуация неудовлетворительная, но работы в этом направлении ведутся. А вот как достоверность и объективность оценивать, даже представить не берусь.