Дарю. Пишем тузлу по бекам :)

john2007
На сайте с 26.03.2007
Offline
173
#51

Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
[Удален]
#52

В каком виде пользователям удобней получать линки?

A
На сайте с 29.12.2005
Offline
118
#53
john2007:
коллективными стараниями вполне реально

Ну там можно и расстараться по такому случаю. У многих же сеошников есть свои сервера.

Ceres
На сайте с 28.09.2004
Offline
389
#54
john2007:
Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.

Ну так это все "проблемы" разработчиков, в том числе и по провлечению колективного разума и ресурсов. Все реально - проходили уже - надо только жопу поднять с дивана.

Все - за сим откланивают - если тузлу никто не сделает - значит зажралися все - ну и по делом тогда :)

Там чу-де-са! )
L
На сайте с 01.08.2006
Offline
138
lis
#55
john2007:
Ceres, Anton, коллективными стараниями вполне реально. А вот в одиночку уже считали. 10 Мбит/с брали, кажется. Больше года получалось на обход рунета.

во первых можно обходить только проиндексированный рунет. Во вторых нужно стягивать только сам хтмл код где стоят ссылки, в третьих трафф нужно будет распределить на несколько машин думаю что многие тут имеют анлим и смогут его предоставить. с миру по нитке-голому рубаха. опять таки хранить полностью страницу не надо а только адрес донора и риципиента+ анкор и в четвертых другие ПС никто не отменял.

john2007
На сайте с 26.03.2007
Offline
173
#56
lis:

во первых можно обходить только проиндексированный рунет.

Так и считали.

lis:

Во вторых нужно стягивать только сам хтмл код

Так и считали.

lis:

, в третьих трафф нужно будет распределить на несколько машин думаю что многие тут имеют анлим и смогут его предоставить. с миру по нитке-голому рубаха.

На это и расчет.

lis:

опять таки хранить полностью страницу не надо а только адрес донора и риципиента+ анкор

Кстати, с хранением и выборкой из базы тоже проблема наклевывается, понадобится порядка 1 000 Гб только под связки с учетом анкоров. А вот с какой скоростью такая база будет работать, я не знаю :)

lis:

и в четвертых другие ПС никто не отменял.

Другие ПС уже обсудили.

[Удален]
#57
Ceres:
- выдавать инфу по анкору как это сейчас в яше реализовано.

Какую именно инфу ?

A
На сайте с 29.12.2005
Offline
118
#58
john2007:

Кстати, с хранением и выборкой из базы тоже проблема наклевывается, понадобится порядка 10 000 Гб только под связки с учетом анкоров. А вот с какой скоростью такая база будет работать, я не знаю :)

Распределенная база с кластерной архитектурой, из готовых и бесплатных например MySQL NDB кластер, только не помню, сколько нод максимально поддерживается, хоть както, но работать будет. И если, гипотетически, будет тысяча компов с 10 гб памяти, что, в принципе не так уж и дорого, то работать будет достаточно быстро.

Ceres
На сайте с 28.09.2004
Offline
389
#59
Какую именно инфу?

как миниум то что общедоступно было - ссылки по анкору. Но вообще-то имея анкор листы каждый сам волен с ним делать се что захочет ;)

Margo
На сайте с 29.10.2005
Offline
188
#60
lis:
принципу сканирования ботами, дам свой анлим канал на 512 к на ночное время (с 9 вечера до 8 утра) для работы ботов.

война роботов начинается 😂….дубликат базы по анкор листам - это наверное не то, чего хотели добиться в Яше, интересно, на что рассчитывали - просто усложнить жизнь, прекратить постоянные обращения к выдаче всяких оптимизаторкских програмулек....? но ведь обращений будет мягко говоря в разы больше...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий