- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Заметил что на nginx 0.6.32 как-то криво работает gzip сжатие.
Настроен gzip на сжатие .html, .css и .js файлов.
На сервисах http://site-perf.com/ , http://www.whatsmyip.org/http_compression/ и http://www.port80software.com/
Показывает что всё нормально сжимается в 3+ раза
НА других сервисах http://tools.pingdom.com/fpt/ , http://pagespeed.googlelabs.com/pagespeed/ + плагин Networks в Chrome и Page Speed в Firefox показывают, что вообще никакого сжатия не происходит и передаются полноразмерные несжатые файлы.
Думал решить этот вопрос переустановкой nginx.
Собрал новый nginx 1.0.6 установил требуемые библиотеки. Скомпилил. ЗАпустил. Он заработал.
Начал тестировать по Сервисам приведенным выше все дают тот же результат что и при старом nginx. одни показывают что файлы передаются сжатые другие что нет. (((
Вот конфиг nginx.conf он одинаковый был и остался на старой и новой версиях nginx:
Кто может подсказать в чём проблема?
Может я что-то не так в конфиге прописал?
zVerskiy добавил 30.09.2011 в 17:03
Неужели ни у каго нету даже малейшего предположения в чём может быть проблема?
А в серверах нет ничего, связанного с gzip?
И таки оффтоп, после полугода возни с последними ветками я откатился на 0.7.69.
Ибо имеют место быть нерешаемые глюки, начиная с 0.8.хх
А вы не подумали, что раз
одни показывают что файлы передаются сжатые другие что нет.
значит это в сервисах дело...
Кстати почему такой слабенький уровень сжатия? Или процессорные ресурсы не позволяют?
Ибо имеют место быть нерешаемые глюки, начиная с 0.8.хх
Интересно какие? У меня на одно сервере 0.8.53, на другом 1.0.1 - никаких глюков, все летает.
Интересно какие? У меня на одно сервере 0.8.53, на другом 1.0.1 - никаких глюков, все летает.
Например, подвисающие time_wait при высокой нагрузке. Причём, даже при нулевом keepalive.
C 1.1 вообще воркеры отваливались постепенно, порождая смешную ситуацию - вроде какбэ nginx работает, только бэкенду ничего не передаёт.
На форуме nginx вопросы на эту тему игнорятся.
На 0.7.69 всё как по маслу.
150 тыс человек, 20М+ страниц и все известные краулеры, просто живущие там и генерящие загрузку больше, чем люди :).
Причём загрузки процов почти нет. Около единички. Просто дофига коннектов и запросов.
Кстати почему такой слабенький уровень сжатия? Или процессорные ресурсы не позволяют?
Зачем больше? Толку ноль, а клиенты на слабых машинах сразу ощутят тормоза.
Зачем больше? Толку ноль, а клиенты на слабых машинах сразу ощутят тормоза.
ну вообще-то распаковка довольно легкая и алгоритм не зависит степени сжатия.
вот упаковка больше уровня 1 считается уже нерациональной.
это легко проверить упаковывая и распаковывая командой time gzip большой текстовый файл, исходники какие-нибудь. если ресурсов в избытке так и пакуйте себе.
и все известные краулеры, просто живущие там и генерящие загрузку больше, чем люди
не хотите некоторых совсем закрыть через роботс (зачем генерить траф и нагрузку если посещаемость оттуда копеечная), а другим настроить все через тот же роботс таймауты.
Причём загрузки процов почти нет. Около единички.
Хорошо, но почти предельно :)
Зачем больше? Толку ноль, а клиенты на слабых машинах сразу ощутят тормоза.
то есть при распаковки браузерами?
Даже никогда не задумывался над эти вопросом, думал что и так все очень быстро распаковывается. Кстати по поводу слабых машин - а у таких случайно не медленный интернет :) - хорошо упаковав быстрее доставим - здесь важно выбрать какую-то золотую середину, думаю 3 маловато будет, возможно 4 в самый раз, у меня вообще кажется на обеих серверах 8 стоит, но процессор позволяет.
Reise добавил 02.10.2011 в 03:49
ну вообще-то распаковка довольно легкая и алгоритм не зависит степени сжатия.
Во во, тоже так думаю, походу ж все летает, тоормоза как раз на доставке неупакованных либо слабоупакованных данных по причине слабости интернета и большому количеству соединений.
распаковка довольно легкая и алгоритм не зависит степени сжатия.
Ну-ка подробней, плиз, желательно с линками.
ну вообще-то распаковка довольно легкая и алгоритм не зависит степени сжатия.
Да ну, правда чтоли? Это как так при увеличении числа итераций разница остаётся неощутимой? =)
А всё-таки может кто-то сказать что-нибуть по поводу ТЕМЫ?
Я просто не пойму почему мне в браузеры передаётся несжатый конетент и Гугл об этом говорит на своём сервисе.
При том что на другой моей VPS заметил тот же бок с gzip сжатием.
Может как-то сжимать статику через Apache?
Я Вам уже посоветовал посмотреть - что в серверах.
Вы привели общую конфигурацию http.
Что у Вас в:
?