- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет всем! Возникла необходимость вывести на сайте архив походных данных на нескольких языках за несколько лет. Есть 20 000 000 записей в нескольких файлах.
Каждая строка ето: место-погода-погода на английском-погода на немецком-на французском-..-на албанском.
Как мне вывести ето все на сайте, что бы с минимумом тормозов и нагрузки? может как то хитро загнать в базу ето все? тогда как базу организовать? какие поля и как вообще все ето делается?
Может в файлах хранить? разбить весь архив по датам и местам? А как тогда выводить? какую навигацию делать?
Забейте всё в БД, проставьте индексы и будет вам счастья.
без проблем будет работать если выборки не планируются сложные по массиву - у меня в одном проекте база 18 000 000 - работает без особых проблем с нагрузкой
зависит от того как будете выводить.
составьте все варианты вывода данных (по какому параметру) - после этого продумывайте структуру БД.
ну и добавляйте индексы к тем полям которые в запросе участвовать будут.
Возможно будет иметь смысл сделать несколько таблиц по категориям запросов (по языку например)
Ваши данные - Вам виднее :)
Вы кто либо пробовали делать запрос SELECT data WHERE id = 15 000 000 ?Сколько он по времени займет знаете?
Вы кто либо пробовали делать запрос SELECT data WHERE id = 15 000 000 ?Сколько он по времени займет знаете?
Если есть индекс на id и сервер не на пентиум-133, то миллисекунды.
p.s. И величина id тут вообще ни при чём
;9810366]И величина id тут вообще ни при чём
присоединяюсь, индексы рулят. 20кк далеко не предел, я работал и с несколькотеррабайтными БД и ничего, главное грамотно продумать структуру(в вашем случае - очевидно), поставить индексы и наслаждаться
Да, индексы ето чудо! Все выводится моментально, вот только пришлось сменить в запросах limit на условие больше start и меньше start+10 иначе лимит- тормозит страшно
вот только пришлось сменить в запросах limit на условие больше start и меньше start+10 иначе лимит- тормозит страшно
А что было раньше? Вы делали выборку без лимитов и условий? :)
Если данные в базу добавляются редко, то лучше избавиться от множества WHERE а тем более SORT BY и еще хуже GROUP BY
Настройте вывод результата в отдельную таблицу,можно и через крон, потом забирайте оттуда результат когда нужно и индексы не понадобятся.
Ну если память сервера позволяет, то почему бы и нет.
У меня в комментах так делается. Это позволяет закэшировать запрос.