Андрей Иванов

Рейтинг
166
Регистрация
23.11.2000
Интересы
search engines
Как писал Tooman
andre, попробуйте судить о запросах не со стороны того, что Вы можете придумать как разработчик, а с точки зрения истины и вероятностей. Вероятность того, что


далеко не стопроцентная. Если Вы захотите, то можете легко найти этому подтверждение.

К тому же (цитирую себя же):

С Вами я курс философии и математики вспоминаю! :) По ней истины разделяют на абслютные и относительные. А вероятность точнее всего прогнозирует события, когда выполняется закон больших чисел.

Утверждая, что предложенное разложение не 100%-но верное, Вы правы, абсолютных истин не существует. Но если оно 99%-ое, 95%-ое и даже на 75% верное, то, как раз по законам вероятностей, оно верно.

На практике это можно было бы проверить так - необходимо придумать, минимум, еще 9 принципиально отличных смысловых разложений и провести хотя бы небольшое голосование - все ли они действительно отражают потребности пользователей в информации так же неплохо.

Я, к сожалению, навскидку не могу придумать даже второго варианта.

Как писал Ceres
andre, а раз всем выгодно, то с чего такие мысли насчет ручной выдачи?

Пользователям невыгодно. Выдача стала крайне однобокой, а внешний вид большого количества сайтов - уродливым. Это понимают уже все.

Если юзер не может составить первоначально точный запрос - это будет ему подсказкой. (что-то наподобии того как на Раме сейчас реализовано "У нас также ищут")

Угу, только список этих запросов еще составить надо. Если мы говорим о "естественном интеллекте", это будет некое "смысловое разложение", если об "искусственном" - "кластеризация". Сможет ли алгоритм составить хотя бы такое - http://www.neiron.ru/get.asp?data=%F1%EC%FB%F1%EB+%E6%E8%E7%ED%E8 - разложение (человек это делает за полчаса), очень большой вопрос, положительных примеров пока не видел. Рамблер-ассоциации - очень другая вещь.

Ранжирование, если мы ведем речь о ручной выдаче, тоже должно строиться на каких-то осмысленных принципах. Основных моделей три:

- аукционная

- рандомизированная (если уж в выдачу по запросу попал, а дальше, как уж карта выпадет)

- социальная.

Последняя решается просто. По запросу, например, те же "пластиковые окна" хотите показываться Вы + еще пара десятков конкурентов. Вам и решать, как строить ранжирование, что скажете, то и будет. Думаю, в таком подходе как раз и будут максимально учтены интересы всех... если сможете договориться между собой, конечно.

Как писал Tooman А Вы, случаем, не можете объяснить, что точно имел в виду пользователь, когда вводил запрос "пластиковые окна"? Вы субъективно хотя бы можете гарантировать, что пользователь интересовался ценами на них или местами где он мог бы их купить? Утопичны Ваши идей....

:) Я это пятый год слышу, только рынок как раз к ним и двигается. Каковы, интересно, идеи Ваши? Насчет пластиковых окон, случаем, объясню. :)

Пользователь, вводя запрос "пластиковые окна" хочет получить информацию примерно следующего типа:

- что это такое и основные типы

- продажа окон

- ремонт окон

- установка окон

- цены на окна

- координаты ближайших поставщиков окон и услуг с ними связанных.

Возможно, есть еще 2-3 смысловых значения, которые сходу не увидел, но принципиально иную выдачу Вы вряд ли придумаете.

Сегодня информация в Сети организована не по смыслу, а по продавцам, и большинство делают упор не на полноту информации, а чисто на рекламный момент - позвони и купи.

Как писал Tooman
andre, я так думаю, что Вы не достаточно хорошо представляете теорию статистической обработки данных и трудозатраты, которые потребуются для !объективной! ручной выдачи.

:) Я хорошо представляю относительность значения слова "объективный". Все оптимизаторство и существует на принципе, как из объективной выдачи сделать субъективную. И надо сказать, это довольно неплохо получается. Пользователю все равно, "объективная" выдача перед ним или "субъективная", ему важно найти то, что он хочет.

И возвращаемся к той же проблеме - что он хочет, как можно оценить качество предложения, каким образом лучше всего систематизировать выдачу. Ответ на эти вопросы хотя бы в теории уже дает некие критерии качества. Пока же дальше понятия о "релевантности" никто не двигается.

Поисковикам это выгодно - реклама неплохо продается. Оптимизаторам, в принципе, тоже - в мутной воде рыбу ловить легче.

Как писал Ceres
andre, а что по вашему - завтряшний день? Ну или хотя бы сегодняшний :)

Сегодняшний, сами знаете, - ссылки. :)

Завтрашний - ручная выдача, на 99% уверен. Прорыва в "искусственном интеллекте" и "нейросетях" не будет.

Надо, правда, различать сферы применения. В области поиска длинных цитат поисковикам равных не будет, они для этого и созданы. А вот в области высокочастотников, коротких нечетких запросов - ручками.

Как писал Tooman В интернете для этого существуют сеошники, то бишь мы. И это уже другой разговор - к теме обсуждаемой не относится...

Как раз это и относится. Мусор производят сеошники, причем делается это как раз по "набору правил", выдаваемых Яндексом и т.п.

У крупных поисковиков сейчас нет проблемы "искать", информацию им принесут сотни заинтересованных лиц в любом виде, какой только будет нужен пользователям. Вопрос лишь в том, что им нужно-то? Каковы идеальные результаты поиска, приоритеты качества информации. Это теоретические проблемы, которые только-только подниматься начинают. СЕО, обеспечиваемое массой ссылок, хотя и неплохо работает, но все же уже вчерашний день.

Как писал Tooman
andre, есть разница между алгоритмами сортировки и фильтрации ссылок поисковиками и предложением рандомизировать выдачу! Не ощущаете?

Идея рандомизации выдачи - это идея Ильи Сегаловича, он ее несколько раз открытым текстом выдавал, но реализовать, вроде, пока не успел. Может и реализуют, если по этому пути пойдут, пока же упражняются в алгоритмах сортировки и фильтрации.

Я немного о другом, более отвлеченном. Тема началась с утверждения "сколько мусора". Его много. Сам не вижу способа избавиться от этого мусора алгоритмами, поэтому сторонник ручной выдачи.

Как писал Tooman
Все пишут, что это бред, а потом фантазируют на тему...

Мысль как раз не бредовая, а вполне разумная: ссылки уже, однозначно, ставятся не как рекомендация, а для продвижения, это замусоривает Сеть, и надо что-то делать.

А вот что делать... это проблема не только разработчиков поисковиков, она прежде всего в самих нас. Когда мы говорим о чистоте поиска, о качественных результатах - вроде, все в порядке, можно друг друга понять и оценить выдачу хотя бы на уровне "лучше-хуже". Но когда речь идет о собственном проекте каждого... тут частенько труба полная - в большинстве случаев об объективности забывают напрочь. :)

Кому интересно, может поупражняться на умение делать качественные ссылки в ответ на поисковые запросы - http://www.neiron.ru

Разрешается ставить и аннотировать любой линк на любой запрос. Трафика на нейроне нет, ссылки непрямые, поэтому в качестве продвигающего сайт рассматривать не стоит. А вот в качестве учебного - вполне.

Я смотрю постоянно, кто и как регистрится. Вывод один напрашивается и весьма нерадостный - мы просто не представляем себе, какими должны быть действительно хорошие результаты поиска.

Как писал spark
Ведь был уже эксперимент спайлога именно по CTR. LiveInternet уже в этом треде цифры эти косвенно подтвердил. К ним и нужно привязываться.

Привязался. :) Взял список из 250 запросов и средние коэффициенты CTR из того эксперимента. Запустил Семастер, ждем отчета. Данные о количестве переходов из поисковиков на сайт у меня есть.

Даже "страшно" немного. :) В идеале машинка должна выдать цифирь, которая совпадет с уже имеющимися данными.

Красивая идея, спасибо, Антон!

Всего: 737