- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
И у меня еще возник вопрос: каким параметром в системе выставдяется ограничение на количество дескрипторов, как узнать текущее значение, и как правильно его определить для себя, каким оно может быть максимальным? Только под мускул насчитал необходимость в 1000 дескрипторах (считал максимальное кол-во соединений помноженное на кол-во используемых таблиц для одного соединения)
Этот лимит прежде всего зависит от ограничений в ОС. Тот который ulimit.
Можно задать в конфиге mysql open_files_limit, но, помоему, превысить ulimit так не удастся.
myhand, так я уже объяснял зачем, а вы сказали - "зато".
Эта ситуация означает проблему выбора из двух противоречащих вариантов. В разных условиях выбор будет разным.
Со слов ТС памяти у него много, но вся она чем-то занята
Сейчас на сервере 48Gb. Используется в данный момент 41Gb
скорее всего кеш файлов и его вымывать не стоило бы.
В любом случае, при таких сложных зависимостях, эксперимент работает лучше умозрительных оценок.
Можно задать в конфиге mysql open_files_limit, но, помоему, превысить ulimit так не удастся.
С чего вдруг? Эта переменная контролирует те же самые механизмы RLIMIT_*, что и ulimit.
Со слов ТС памяти у него много, но вся она чем-то занята
скорее всего кеш файлов и его вымывать не стоило бы.
Ну, аж целых 7Gb свободно. А наши гипотетические апачи потребуют 1Gb по самой писсимистической оценке. Ы?
С чего вдруг? Эта переменная контролирует те же самые механизмы RLIMIT_*, что и ulimit.
Ну вроде работает. Что вообще нетипично для приложений.
Ну, аж целых 7Gb свободно. А наши гипотетические апачи потребуют 1Gb по самой писсимистической оценке. Ы?
Ну как же 1гб ? 50 апачей по 128 мб уже 6.4 ГБ - это впритык.
Там ведь после недавних перезагрузок наверняка далеко не все файлы закешировались. Такой сайт может сожрать больше.
Видимо слишком динамичный сайт для кеширования. Как то даже были попробовали: поставили Super Cache - вроде все начиналось хорошо, но скоро увидели в браузере вместо внутренней страницы - главную. Больше решили не рисковать. Хотя сама по себе идея кеширования - это хорошая идея.
Значит надо писать свой кеш с учетом специфики
Я уже имел с этим опыт, не так уж и сложно
Ну как же 1гб ? 50 апачей по 128 мб уже 6.4 ГБ - это впритык.
Посмотрел вокруг - больше 20Mb нигде вроде нету, с этой оценкой и считал. 128 - что-то уж больно специфическое. Я что-то проглядел и ТС давал это число?
Посмотрел вокруг - больше 20Mb нигде вроде нету, с этой оценкой и считал. 128 - что-то уж больно специфическое. Я что-то проглядел и ТС давал это число?
но вы заявляли, что считали максимально "писсимистически".
для современного движка 20 - смешно. многие ставят 128. https://www.google.com/search?hl=en&q=php+memory+limit+128mb
даже если 128 потребуется лишь одному особенному скрипту для какой-то массивной операции, эта память не отдается обратно. по крайней мере не сразу отдается.
но вы заявляли, что считали максимально "писсимистически".
Ну да. Я не вижу больше 20Mb вокруг. Даже на достаточно тяжелом сайте с drupal ~ 30Mb.
для современного движка 20 - смешно. многие ставят 128. https://www.google.com/search?hl=en&q=php+memory+limit+128mb
Да люди самые разные глупости делают с подачи нехитрых запросов гуглу ;) Поисковик головного мозга пока заменить не умеет.
даже если 128 потребуется лишь одному особенному скрипту для какой-то массивной операции, эта память не отдается обратно. по крайней мере не сразу отдается.
Особым скриптам - особые условия.
Особым скриптам - особые условия.
И какой простой способ это обеспечить? увеличить memory_limit в самом скрипте во многих конфигурациях нельзя.
Посмотрел вокруг - больше 20Mb нигде вроде нету, с этой оценкой и считал. 128 - что-то уж больно специфическое. Я что-то проглядел и ТС давал это число?
128 это действительно специфическое. У меня порядка 30мб на 1 коннект.
Сейчас отстраиваю мускул. Понял что настройки были совсем не подходящими, видимо проблема от сюда и возникала на старом сервере.
128 это действительно специфическое. У меня порядка 30мб на 1 коннект.
но 128 это дефолтное значение настройки memory_limit в php. захочет 128 и сожрет.
netwind добавил 09.11.2011 в 20:16
Сейчас отстраиваю мускул. Понял что настройки были совсем не подходящими, видимо проблема от сюда и возникала на старом сервере.
ну так переезжайте теперь обратно на старый сервер, но настройте его. это же дешевле обойдется, разве нет?