Гугл не индексирует больше 2 млн. страниц :(

dimok
На сайте с 08.11.2002
Offline
291
706

Небезысвестный GoogleGuy довольно явно сказал об этом:

http://www.markcarey.com/googleguy-says/archives/does-google-stop-crawling-after-2-billion-plus-pages.html

Hey, I should have been more clear in one of my posts. When I said 'it could be that we just ran out of space or time,' I was referring to space in our repository. That is, we wind down the crawl after fetching 2B+ URLs, and the URL in question might not have been in that set of documents. Regarding address space, we're not in danger of running out of docIDs for our documents. The story about the engineer claiming that he almost fell out of his chair laughing at the suggestion that we're running out of docID/address space is true. You can choose not to believe me, but that's your call. :)
CLICKBAZA: есть траф - будут и деньги (https://clickbaza.com/)
T
На сайте с 23.06.2003
Offline
100
#1

Насколько я понял речь идет о более чем 2-х миллиардах страниц - "2В+". И речь идет не о размере "всего" индекса Гугла. В общем, суета это. Он ясно написал, что их инженеры падали со стульев от смеха, когда читали эти спекуляции про Гугл.

dimok
На сайте с 08.11.2002
Offline
291
#2

В теме ошибся. Исправил.

Да-да. Как я понял, "индекс загинается на более 2-х млдр. страницах". Инженеры посмеялись. Но итог не ясен - все ОК или не совсем?..

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий