- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброй ночи! :)
Прошу совета у знающих людей. Использую ФИАС, кто знает - объём таблиц около 6 млн записей. Использоваться будет часто. Все запросы пойдут только на выборку данных, UPDATE или INSERT будет доступно только на административном уровне в эти таблицы.
Как лучше будет сделать? Кэш? Может вообще не на MySQL это делать а в другой СУБД? Тогда как её портировать? (в смысле такой огромный дамп базы). Вообще хотелось бы услышать здесь людей, имеющих опыт работы с миллионными таблицами.
6 млн для выборки с нормальным сервером и правильно расставленными индексами это не так уж и критично.
siv1987, а нормальный - это какой в вашем понимании?
ну не за 1$
siv1987,
У меня 512Мб памяти, хотя есть возможность свободно увеличить. Сейчас дамп 4,55Гб файла идёт уже 2,5 часа, это нормально?
Это копеечная таблица...
В свое время в час было больше добавлений...
Базы были с таблицами по неск миллиардов записей.
Сервер был с четырьмя гигами памяти и все летало.
У меня 512Мб памяти, хотя есть возможность свободно увеличить.
Если используется апач половина из этого только он сожрет. Потом смотря какая у вас виртуализация.
Сейчас дамп 4,55Гб файла идёт уже 2,5 часа, это нормально
А у вас есть столько места? + индексы еще половину могут занять.
Сейчас дамп 4,55Гб файла идёт уже 2,5 часа, это нормально?
Это не нормально!
Потом смотря какая у вас виртуализация.
Виртуализация VMWare
---------- Добавлено 02.05.2013 в 00:51 ----------
Если используется апач половина из этого только он сожрет.
Сейчас жрётся около 130 метров памяти )
---------- Добавлено 02.05.2013 в 00:53 ----------
Сейчас посмотрел, у меня memory_limit = 128M, памяти столько и жрётся, наверное от недостатка памяти процесс медленно идёт.
Значит вот...
По предварительным данным будет не менее 10 млн записей. Кто что посоветует для работы с такой таблицей на выборки?
Значит вот...
По предварительным данным будет не менее 10 млн записей. Кто что посоветует для работы с такой таблицей на выборки?
Кроме грамотно установленных индексов по полям условий выборки и отсутствия тяжелых запросов врядли кто-то что-то посоветует.
Ну и конечно памяти поболее - это под все субд самое нужное из железа.