- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А об обновлении БД-шного кеша вы думали? Обновление индексов при update или insert тоже не самая медленная процедура при большой базе.
Вы наверное хотели сказать "не самая быстрая" =) И это святая правда. Правда чем больше база, тем меньше в дереве происходит разбиений, и тем меньше передвижек и перераспределения индексных файлов. Но 95% пользователей очевидно не нужен ни апдейт ни инсерт, ни альтер и т.д. Им подавай быстрый селект. Если речь идет хотя бы о VPS с возможностью самостоятельного администрирования, можно муське отдать столько памяти, что хватит закешировать все страницы.
А вообще, если говорить о высоконагруженных серверах, о муське стоит забыть. Вот другое дело Постгре. Не зря же такая махина как Яху на нем одном работает.
update и insert бывают гораздо реже
Но и выполняются медленнее. На одном проекте пришлось отказаться от индексов, иначе с ними обновление таблиц затягивалось на несколько минут. Там, правда, задача была в заливке прайсов по несколько десятков млн позиций :)
XCache
Спасибо, судя по всему нужно будет взять на вооружение :)
Может есть еще какие способы?
Кинуть данные в базу. Если база в памяти - может быть быстрее.
Поставить memcached и тягать данные из памяти.
Если у хостинга есть акселератор и кеширование исходящих данных, то отдать юзеру ссылку на файл редиректом.
Хранить кеш на диске в зипованном виде. Считывать, раззиповывать и использовать. Обычно это работает в несколько раз быстрее прямого считывания.
Если файлов более 30 тыс., то раскидать их по каталогам. Будет быстрее.
удалось добится [ PG.t : 0.14 | DB.q : 7 | DB.t : 0.07 ] при 7 запросах 0,07 получается на генерацию страницы уходит 0,07.. кто скажи хорошо нет это? или можно еще менее добится?
кто скажи хорошо нет это? или можно еще менее добится?
Предел - 200 обращений к диску в секунду для всего сервера. Отталкивайтесь от этой цифры и считайте. На глаз - у Вас всё великолепно.
Предел - 200 обращений к диску в секунду для всего сервера. Отталкивайтесь от этой цифры и считайте. На глаз - у Вас всё великолепно.
стесняюсь спросить, а что это за предел. откуда цифры?
Не пойму ни как.. как поставить Xcache и заставить его загружать в память файлы
P\S извините за тупость просто с root-ом тяжко у меня :( может есть у кого скомпелированные файлы