- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Это очень ценные данные. Иметь такую статистику - здорово.
скорее всего это не данные о фактической погоде, а сохранённые прогнозы, поэтому такие данные полная туфта
Ну автор же четко написал:
лет 10 сохраняются данные о погоде, БД огромная.. и стала притормаживать.
И кстати добавив сюда данные о прогнозах на это время - вообще получаться бесценные данные, позволяющие оценить расхождение фактической погоды и прогнозов - мечта для любого метеоролога))) Так что думаю, ту не прав в своей оценке.
😀разве что для метеоролога, я глянул, на его сайте (вычислил по его постам) данные сильно расходятся по количеству осадков например в ялте с википедийными, это точно по прогнозам, а не по факту
и да, с гораздо лучшим качеством и бесплатно, можно получить такие данные, у же не по прогнозам, а модельные (либо фактические, для тех мест, где они имеют данные) от коперника от ecmwf или американского ноаа, например https://cds.climate.copernicus.eu/datasets/reanalysis-era5-land?tab=overview
😀разве что для метеоролога, я глянул, на его сайте (вычислил по его постам) данные сильно расходятся по количеству осадков например в ялте с википедийными, это точно по прогнозам, а не по факту
Пусть ТС сам отвечает на этот вопрос. Понятно что это интересно узкому кругу потребителей. Ну и тема не про ценность данных, а как решить проблему, смысл обсуждать нужно или нет? Я то прокомментировал это BTW, в контексте основного вопроса.
Но в любом случае, считаю что любая статистика может иметь ценность. А уж решать это не нам)
Я вот счас пытаюсь решить сложную задачу, как раз по этой теме - Стоит ли покупать зимнюю резину или достаточно всесезонки? С учетом того, что в прошлом году снег у нас лежал 2 недели))) А хранить второй комплект и особо негде)))
я за то, чтоб почистить базу от архивных данных, нафиг они не нужны за 10 лет
другое дело, если это не поможет, может и не в бд дело, а диск крашнулся и теперь тормоза на весь сервер)
я так подумал, потому что у него статика на сайте отдается 100-200мс, а должна отдаваться за ~=ping
Пусть ТС сам отвечает на этот вопрос. Понятно что это интересно узкому кругу потребителей. Ну и тема не про ценность данных, а как решить проблему, смысл обсуждать нужно или нет? Я то прокомментировал это BTW, в контексте основного вопроса.
Но в любом случае, считаю что любая статистика может иметь ценность. А уж решать это не нам)
Я вот счас пытаюсь решить сложную задачу, как раз по этой теме - Стоит ли покупать зимнюю резину или достаточно всесезонки? С учетом того, что в прошлом году снег у нас лежал 2 недели))) А хранить второй комплект и особо негде)))
5 лет езжу (правда мало) на всесезонке, никаких проблем не было
по теме, думаю, у ТС данные лежат просто тупо по дням в базе, а потом он их на лету агрегирует, поэтому и тормоза, надо агрегировать по месяцам/годам и сохранять агрегированные
5 лет езжу (правда мало) на всесезонке, никаких проблем не было
по теме, думаю, у ТС данные лежат просто тупо по дням в базе, а потом он их на лету агрегирует, поэтому и тормоза, надо агрегировать по месяцам/годам и сохранять агрегированные
ну я привел свой флоу, как это решать. Не видя структуры базы - невозможно что-то советовать, можно просто предложить алгоритм решения.
я за то, чтоб почистить базу от архивных данных, нафиг они не нужны за 10 лет
другое дело, если это не поможет, может и не в бд дело, а диск крашнулся и теперь тормоза на весь сервер)
Поэтому у меня пункт1 - развернуть это все локально.
alexverem :
Не подскажите самый простой и не затратный по времени способ? Но работающий )
Кэширующий прокси 😊
На сервере: PHP Version 5.3.29
Facepalm. Поставьте хотя бы 5.4 (.45) 😊
И правильно ли я понимаю, что первое отображение все равно будет с задержкой?
Необязательно. Можно кэшировать страницу не при первом обращении, а заранее (отдельное действие, действие при сохранении основных данных станицы, запускаемый вручную или автоматически фоновый процесс). Также можно использовать кэширование при первом обращении, но выполнять это обращение самому (действие "предпросмотра", запускаемый вручную или автоматически процесс "обхода" определенных страниц).
Ждем следующую тему: Кэш страниц разросся до невероятных размеров. Что делать? 😊
Какое-то время назад сделал дополнительные индексы, но сейчас снова тормозит..
Данные можно обновлять где-нибудь раз в два часа. И правильно ли я понимаю, что первое отображение все равно будет с задержкой?
чтобы не было никаких задержек, даже если кэш истёк, то если пхп работает как FastCGI либо PHP-FPM и доступна функция fastcgi_finish_request, то первое отображение можно сделать так, чтобы бралось из кэша без задержки (если кэш имеется), и если кэш истёк, то после вызова fastcgi_finish_request обновлять кэш, а если как модуль апача, то тоже можно, но гораздо сложнее, с задействованием обновления кэша по крону
также, если пхп работает через нджинкс+ PHP-FPM и имеется доступ к его настройке, то можно и через нджинкс такое кэширование прикрутить
Но в данном случае они скорее всего просто неправильно составлены.