- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
asserte, тогда совсем непонятно. ну сделали бы индекс по первой букве. или вон по первым двум из md5 для равномерности.
а запросы lock table ужасно легкие ведь. если вы не подключаетесь к удаленным базам по интернету, число запросов не влияет напрямую на скорость
10 млн мускуль выдержит
главное, чтобы индексы лежали в памяти, то есть оперативы было достаточно
А таблицы в 1,5 млрд записей, потянет какая-то субд или придется разбивать на части?
а кто круче, Чак или Шварц?
глупые вопросы пошли.
почти любая субд потянет 1.5млрд записей. вопрос лишь как быстро она будет их обрабатывать.
Конечно коммерческие субд будут лучше подстраиваться под условия и проявлять искусственный интеллект, однако и на mysql путем анализа и оптимизации можно добиться результатов не хуже.
Миллионы и миллиарды выдержит, вот только вопрос потянет ли железо.
ТС спросил в первом посте сколько времени будет отрабатываться запрос, ну если минут 5 + 15 гигабайт памяти нормально, то советуем не паниковать и дальше господа теоретики
asserte, тогда совсем непонятно. ну сделали бы индекс по первой букве. или вон по первым двум из md5 для равномерности.
а запросы lock table ужасно легкие ведь. если вы не подключаетесь к удаленным базам по интернету, число запросов не влияет напрямую на скорость
Воткните список доменов обычными INSERT`ом в табличку (я кидал - было 1.2 ляма). После пятисотой тыщи начинались такие тормоза на запрос (AMD 3000+ 64 / 1.5 Gb Ram), что плакать хотелось. Это - обычный инсерт... Потом, когда пошел апдейт на булевы значения (в обработке/нет) пошли проблемы, когда два из 150 процессов тупо друг-дружку перекрывали. Лок, как таковой - не очень быстро, при таких объемах (это так кажется, что будет летать - можете для эксперимента дампик пульнуть в базу - увидите сами).
Сначала с таблицами колдовали - не удалось добиться приемлимого времени обработки запросов. Перешли на модификацию бизнес-логики (обработка запросов стэками) - не помогло. Приемлимых результатов добились только разбиением списка по первым буквам.
Собсно, вот так. А на счет реализации... ХЗ - под каждую задачу своё решение. :)
После пятисотой тыщи начинались такие тормоза на запрос
индексы были?
на таких объёмах удаление индексов значительно ускоряет добавление данных. Правда, если потом они всё же нужны, их нужно опять добавить - это всё же замедляет процесс. Но в целом ускоряет. :)
Здраствуйте!
Мне нужна информация,совет.
У меня есть таблица с примерно 1-10 млн записей (Пусть с именем table1). Точнее нет, но планируется.
Знающие люди скажите такое вобще возможно будет и как мускл будет выдерживать запросы в эту таблицу. Т.е. быстродействие таких запросов как:
select .. from table1 where id2=...
update table2.count = COUNT(table1.id1) .... where table1.id2 = ....
select COUNT(id1) form table1 where id2=....
update table2.sum = SUM(table1.ss) .... where table1.id2=...
Сколько по времени будут занимать такие запросы....
Или это ничего страшного и я зря паникую? :)
Камень сдохнеД.
10 человек онлайн для вас Дэдос))
индексы были?
на таких объёмах удаление индексов значительно ускоряет добавление данных. Правда, если потом они всё же нужны, их нужно опять добавить - это всё же замедляет процесс. Но в целом ускоряет. :)
В исходной таблице был primary_key id_domain с автоинкрементом. По нему и делались апдейты. По домену смысла не было делать индекс - выборок не было, в поиске не участвовало поле.
asserte, да хватит пугать лямами. полно народу и с бОльшими базами и нагенерить данные довольно легко. lock - это очень быстро. там нету никаких особенных накладных расходов.
вот блокировка таблицы на 5.5 млн записей :