В индексе Яндекса максимум 1000 страниц?

123
K
На сайте с 31.01.2001
Offline
737
#11
юни:
в чём проблема выдать их все по запросу,

В нагрузке на сервера от тысяч роботов-долбильщиков результатов поиска. Что же тут непонятного?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
Alex91
На сайте с 30.12.2007
Offline
258
#12
юни:
Если они уже проиндексированы (обработаны), то в чём состоит генерация? Выдернуть из базы уже содержащиеся там данные, соответствие титла и урла - это совсем не то, что найти в поисковом индексе ответ на запрос пользователя.

В чём состоит якобы существенное увеличение нагрузки?

дело не только в существенности, а в бесполезности. пользователям (людям) - это надо?

C Уважением, Алексей
юни
На сайте с 01.11.2005
Offline
933
#14
Alex91:
а в бесполезности

При чём здесь бесполезность? Где её критерии? В чём польза не от сотой, а от пятидесятой страницы? Кто из пользователей ищет не дальше пятидесятой, а дальше пятой?

Это всё досужие рассуждения, а я говорю о технических ограничениях.

Kost:
В нагрузке на сервера от тысяч роботов

Я не вижу существенного возрастания нагрузки. Разве что на каналы.

Это и непонятно.

tosha420:
можно

Пример поискового оператора можно сразу?

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
Alex91
На сайте с 30.12.2007
Offline
258
#15
tosha420:
http://yandex.ru/yandsearch?text=%D1...d=46510&lr=213

что это?

юни:
При чём здесь бесполезность? Где её критерии? В чём польза не от сотой, а от пятидесятой страницы? Кто из пользователей ищет не дальше пятидесятой, а дальше пятой?

никаких критериев. с такой же успешностью можно было ограничиться и 50ой, думаю. либо же есть статистика, что кто-то (эм?) заходит за 500ой результат выдачи

юни:
Я не вижу существенного возрастания нагрузки. Разве что на каналы.

на каналы, на сервера. если бы это один парсер делал для одного сайта - одно. если это будет делать все сео сообщество, и вытаскивать все страницы - это по-вашему не даст приличное увеличение нагрузки?

юни
На сайте с 01.11.2005
Offline
933
#16
Alex91:
с такой же успешностью можно было ограничиться и 50ой

Или пятитысячной.

Alex91:
если это будет делать все сео сообщество

Оно и так этим занимается. Нет никакого "одного парсера для одного сайта".

Alex91:
это по-вашему не даст приличное увеличение нагрузки?

Насколько я представляю себе архитектуру, разница в нагрузке между выдачей 1.000 и 50.000 результатов - существенно меньше, чем разница между 5 и 1.000 результатов.

Проще вообще не обрабатывать такого рода запросы, чем выбирать часть по каким-то критериям, отнимающим дополнительные ресурсы на их пересчёт.

WS
На сайте с 17.11.2010
Offline
25
#17
юни:
Выдернуть из базы уже содержащиеся там данные, соответствие титла и урла - это совсем не то, что найти в поисковом индексе ответ на запрос пользователя и выдать его в соответствии с определяющими релевантность алгоритмами.
юни:
Проще вообще не обрабатывать такого рода запросы, чем выбирать часть по каким-то критериям, отнимающим дополнительные ресурсы на их пересчёт.

Ограничение в 1000 результатов действует на ВСЕ запросы, а не только при поиске страниц на одном сайте. Зачем делать для поиска по сайту специальные алгоритмы? Кстати релевантность страниц все равно определяется даже если вы просто ищете по сайту с пустым запросом.

WhiteSmartFox добавил 11-01-2011 в 16:06

юни:
Насколько я представляю себе архитектуру, разница в нагрузке между выдачей 1.000 и 50.000 результатов - существенно меньше, чем разница между 5 и 1.000 результатов.

Насколько я представляю архитектуру, Я сразу генерит 1000 результатов на каждый запрос (подумайте сами как можно узнать какой сайт на 500 месте в выдаче не сгенерировав 500 предыдущих), кешируя результаты пока их не попросит пользователь и соответственно чтобы увеличить кол-во результатов до 2000 нужно увеличивать и память кеша и время генерации КАЖДОГО запроса к Я, а это бессмысленные траты ресурсов, т.е. чтобы выдавать пр 50.000 результатов нужно увеличить в худшем случае мощности сервера (память и процессор) в 50 раз причем для всех запросов.

В любом случае чтобы узнать какой сайт будет на 1000 месте надо сгенерировать 999 предыдущих и расставить их по ревалетности, чтобы узнать какой сайт будет на 50 тыс месте, надо сгенерировать 49999 результатов и расставить их по ревалентности, есть разница?

P.S. Странный спор, аналог:

- Давайте сделаем сенокосилку с вертикальным взлетом

- Нафиг?

- Ну мы можем же её сделать?

- Зачем?

- Ну просто так. Сделаем?

- Да нафига?

Объясните ну нафига вам это сенокосилка с вертикальным взлетом? Ну возвращает Я 100 страниц выдачи и что? Нафига вам сдалась 101 страница? Вы так и не придумали случай когда кому-либо может потребоваться более 1000 результатов.

P.P.S. Кстати гугл тоже где-то на 90-93 страницы выдачи перестает показывать результаты по любому запросу.

юни
На сайте с 01.11.2005
Offline
933
#18
WhiteSmartFox:
Вы так и не придумали случай

И не собирался. Меня вообще не интересует вопрос "зачем?".

WhiteSmartFox:
(подумайте сами как можно узнать какой сайт на 500 месте в выдаче не сгенерировав 500 предыдущих)

Ещё раз - при чём здесь сайт в выдаче?

Вам понятна разница между механизмом ответа на поисковый запрос, и механизмом ответа на запрос о количестве проиндексированных страниц? О каком кешировании речь? О какой генерации, и чего именно?

[Удален]
#19
WhiteSmartFox:

Объясните ну нафига вам это сенокосилка с вертикальным взлетом?

Искусство ради искусства и спор ради спора.

юни:
Вам понятна разница между механизмом ответа на поисковый запрос, и механизмом ответа на запрос о количестве проиндексированных страниц?

Предположим, что разница есть. Но можем также предположить тот скромный факт, что менять стандарты выдачи до 1000 страниц ради специфических запросов о количестве проиндексированных страниц, которые нужны только оптимизаторам и ни разу не волнуют обычного пользователя, не имеет смысла. В том числе и потому, что это даст увеличение нагрузки за счёт роботов-парсильщиков (то есть плюсов нет, а минусы имеются).

WS
На сайте с 17.11.2010
Offline
25
#20
юни:
Вам понятна разница между механизмом ответа на поисковый запрос, и механизмом ответа на запрос о количестве проиндексированных страниц?

Нет, а вы знаете эти механизмы? Вы работали в Яндексе и знаете что эти механизмы принципиально различаются? Вы разобрались в принципах построения файла индексов Яндекса? Не говоря уже о том зачем реализовывать два разных алгоритма выдачи и для кол-ва проиндексированных страниц реализовывать другой алгоритм выдачи чем для простых запросов (возвращать более 1000 запросов только для данного случая)?

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий