- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
asserte, тогда совсем непонятно. ну сделали бы индекс по первой букве. или вон по первым двум из md5 для равномерности.
а запросы lock table ужасно легкие ведь. если вы не подключаетесь к удаленным базам по интернету, число запросов не влияет напрямую на скорость
10 млн мускуль выдержит
главное, чтобы индексы лежали в памяти, то есть оперативы было достаточно
А таблицы в 1,5 млрд записей, потянет какая-то субд или придется разбивать на части?
а кто круче, Чак или Шварц?
глупые вопросы пошли.
почти любая субд потянет 1.5млрд записей. вопрос лишь как быстро она будет их обрабатывать.
Конечно коммерческие субд будут лучше подстраиваться под условия и проявлять искусственный интеллект, однако и на mysql путем анализа и оптимизации можно добиться результатов не хуже.
Миллионы и миллиарды выдержит, вот только вопрос потянет ли железо.
ТС спросил в первом посте сколько времени будет отрабатываться запрос, ну если минут 5 + 15 гигабайт памяти нормально, то советуем не паниковать и дальше господа теоретики
asserte, тогда совсем непонятно. ну сделали бы индекс по первой букве. или вон по первым двум из md5 для равномерности.
а запросы lock table ужасно легкие ведь. если вы не подключаетесь к удаленным базам по интернету, число запросов не влияет напрямую на скорость
Воткните список доменов обычными INSERT`ом в табличку (я кидал - было 1.2 ляма). После пятисотой тыщи начинались такие тормоза на запрос (AMD 3000+ 64 / 1.5 Gb Ram), что плакать хотелось. Это - обычный инсерт... Потом, когда пошел апдейт на булевы значения (в обработке/нет) пошли проблемы, когда два из 150 процессов тупо друг-дружку перекрывали. Лок, как таковой - не очень быстро, при таких объемах (это так кажется, что будет летать - можете для эксперимента дампик пульнуть в базу - увидите сами).
Сначала с таблицами колдовали - не удалось добиться приемлимого времени обработки запросов. Перешли на модификацию бизнес-логики (обработка запросов стэками) - не помогло. Приемлимых результатов добились только разбиением списка по первым буквам.
Собсно, вот так. А на счет реализации... ХЗ - под каждую задачу своё решение. :)
После пятисотой тыщи начинались такие тормоза на запрос
индексы были?
на таких объёмах удаление индексов значительно ускоряет добавление данных. Правда, если потом они всё же нужны, их нужно опять добавить - это всё же замедляет процесс. Но в целом ускоряет. :)
Здраствуйте!
Мне нужна информация,совет.
У меня есть таблица с примерно 1-10 млн записей (Пусть с именем table1). Точнее нет, но планируется.
Знающие люди скажите такое вобще возможно будет и как мускл будет выдерживать запросы в эту таблицу. Т.е. быстродействие таких запросов как:
select .. from table1 where id2=...
update table2.count = COUNT(table1.id1) .... where table1.id2 = ....
select COUNT(id1) form table1 where id2=....
update table2.sum = SUM(table1.ss) .... where table1.id2=...
Сколько по времени будут занимать такие запросы....
Или это ничего страшного и я зря паникую? :)
Камень сдохнеД.
10 человек онлайн для вас Дэдос))
индексы были?
на таких объёмах удаление индексов значительно ускоряет добавление данных. Правда, если потом они всё же нужны, их нужно опять добавить - это всё же замедляет процесс. Но в целом ускоряет. :)
В исходной таблице был primary_key id_domain с автоинкрементом. По нему и делались апдейты. По домену смысла не было делать индекс - выборок не было, в поиске не участвовало поле.
asserte, да хватит пугать лямами. полно народу и с бОльшими базами и нагенерить данные довольно легко. lock - это очень быстро. там нету никаких особенных накладных расходов.
вот блокировка таблицы на 5.5 млн записей :