Нужен совет от опытных проектировщиков БД и программистов

[Удален]
#11
И как я понял, по сабжу, все комментарии всего портала записываются в одну таблицу к-я раздувается до гипер размеров?

Что ж там за сайт, что таблицы комментариев разрастётся до "гиперразмеров" каких-то?

seosniks
На сайте с 13.08.2007
Offline
389
#12
Elles:
Что ж там за сайт, что таблицы комментариев разрастётся до "гиперразмеров" каких-то?

Да ничего не разрастется. ну будет метров 30, миллион кометов.

Дак это же не размер.

[Удален]
#13
seosniks:
ну будет метров 30, миллион кометов.
Дак это же не размер.

поржал)

миллион = 1000 000 + о-малое

30 метров = 30 000 000

то есть 30 байт на строку, вы видимо часто пишете каменты вида "+1!!!11адынадын!! анатоле!" =)))

реально под гигабайт-5 будет на миллион каментов, но когда миллион - тогда и разговор уже не вв пустых словах :)

DD
На сайте с 03.05.2009
Offline
44
#14

Вот именно что миллион и даже два миллиона на Mysql не станет проблей а если этих самых коментов в одной табличке миллионов эдак 25?

Тут смотря сколько коментов. Если очень много стоит может логически как то структурировать коменты, разбить на разные таблчки по логике ресурса.

Однажды видел подобную ситуацию, человек говорил что на какомто портале под кадлдый профиль пользователя создавалсь отдельная табличка. Работало. правда табличек этих самых стало что то около 15 тыщ штук :)

dar darbl4 добавил 06.02.2010 в 17:01

Кстати а действительно каким образом организолвано комментирование на больших порталах, где и фото и профили юзеров и записи и пес еще знает что все комментируют? Я просто как то не сталкивался, сам не програмлю, тока в институте было дело)) Может в таких порталах и в разных местах коменты то лежат?

[Удален]
#15
dar darbl4:
Может в таких порталах и в разных местах коменты то лежат?

а точнее на разных серверах, часто всяких постгресах :)

там и 25 млн не проблема :)

+ прослойки из кеш серверов не говоря о всяких mongodb и прочих узкоспециализированных решениях - http://www.mongodb.org/display/DOCS/Tutorial

DD
На сайте с 03.05.2009
Offline
44
#16

кстати милион ето не так и много, 1000 активных юзеров оставляя по 3 комента в день, накоментят милион за год.

dar darbl4 добавил 06.02.2010 в 17:10

bearman:
а точнее на разных серверах, часто всяких постгресах :)

там и 25 млн не проблема :)

+ прослойки из кеш серверов не говоря о всяких mongodb и прочих узкоспециализированных решениях - http://www.mongodb.org/display/DOCS/Tutorial

А в общем случае как быдет бустрее работать чисто с точки зреня скорости 1 таблица на 5 милионов или 5 по 1 милиону ? Без различных узкоспециализированных решений, и разных серверов?

[Удален]
#17
dar darbl4:
А в общем случае как быдет бустрее работать чисто с точки зреня скорости 1 таблица на 5 милионов или 5 по 1 милиону ?

одинаково, если запрс не создает tmp table и не делает filesort. а если делает то звезда вашему серверу при небольшой посещаемости

DD
На сайте с 03.05.2009
Offline
44
#18
bearman:
а точнее на разных серверах, часто всяких постгресах :)

Это вы про PostgreSQL ??

dar darbl4 добавил 06.02.2010 в 17:17

bearman:
одинаково, если запрс не создает tmp table и не делает filesort. а если делает то звезда вашему серверу при небольшой посещаемости

tmp таблицы по моему вообще сильно тормозят. В любом случае однажды выполнял Join, так он из таблиц с проиндексироваными полями, быстрее реботал чем то же самое, но через временые таблицы с предварительным селектом по услоовию, то есть во временной табличке была уже результирующая выборка. Тогда помню сильно удивился. так и незнаю кстати иза чего аткое произошло))

dar darbl4 добавил 06.02.2010 в 17:20

bearman:
одинаково, если запрс не создает tmp table и не делает filesort. а если делает то звезда вашему серверу при небольшой посещаемости

Я имел ввиду 1 селект допустим из конкретной таблицы. То есть по сути откуда будет быстрее из таблицы 1 миллион или из таблицы 5 миллионов? если априори известно из какой таблицы надо братью (Допустим данные логически можно поделить)

[Удален]
#19
dar darbl4:
tmp таблицы по моему вообще сильно тормозят. В любом случае однажды выполнял Join, так он из таблиц с проиндексироваными полями, быстрее реботал чем то же самое, но через временые таблицы с предварительным селектом по услоовию, то есть во временной табличке была уже результирующая выборка. Тогда помню сильно удивился. так и незнаю кстати иза чего аткое произошло))

я знаю почему, рассказывать только не хочу. ибо долго и бессмысленно :)

dar darbl4:
Это вы про PostgreSQL ??

про него любимого. используют кластеры из бд серверов и балансировщики нагрузки + опционально можно штуки типа mysqlPROXY покрутить, если баги страшные в нем поправили, то очень перспективный проект имхо. как раз делает оптимизирует на автомате год говно-индусов которые всякие жумлы пишут и оскоммерцы

Thats right
На сайте с 29.08.2005
Offline
84
#20

А комменты как выстраивать будем, древовидно? Если так, что можно грузить первый уровень комментов на страницу, другие уровни подгружать аяксом. В принципе удобно.

Вариант номер два, делаем таблицу

comment_id | topic_id | comment_pid | comment_text

Выбираем данные по topic_id, причем списком. Подряд. Сортируем на клиенте яваскриптом. Минус - может тормозить клиент. :))))

Вариант номер три - кластеры, можно на основе мускуля. Решение правда пошлое. Пробовал на трех машинках сделать - результы не удовлетворили.

Совсем забыл.

На очень крупных порталах софт для баз данных - платный. Ни о каком мускуле и иже с ним речи идти не может. Это так, игрушки для сайтов, ГС, и прочей мелочи. С большими объемами ситуевина другая. Даже тестировать вам будет грустно на том же мускуле. Очень грустно.

Магазин керамической плитки и керамогранита (http://www.sbsshop.ru)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий