Я вот еще подумал, все-таки gzip не будет удалять комментарии из этих файлов, он их будет сжимать по собственным алгоритмам…
На надо спорить товарищи :-), я примерно все понял. Всем спасибо. Так как я лентяй то каждый раз сжимать эти файлы, после изменений мне не очень хочется, но есть и интересный момент с тем что после сжатия (в онлайн сервисах или спец по.) gzip их как бы еще сильнее сожмет, с другой стороны возможно gzip итак все сам сжимает, удаляя все лишнее.
ОФФТОП:
Были скорости и похуже :-)
Был у меня когда-то ZOOM MODEM на 14.400 не помню точно, через него ли я выходил в интернет первый раз, но тогда это было чем-то нереальным, и не смотря на плохое подключение, низкую скорость с прерываниями и отключениями я об этом не думал это было круто, зайти на какую ни будь страничку как в потустороннее измерение. А вообще он, по-моему, для игр по телефонной линии покупался во временя MS-DOS и коннектам к различным BBS с которых можно было даже что-то скачать.---------- Добавлено 28.05.2018 в 15:09 ----------Я когда пробовал этот сервис https://checkgzipcompression.com – у меня аж 82.7% почти на 100% сжалось, что я так предполагаю хорошо.
Вот я примерно об этом и думал и соглашусь с вами. Да, а скорости вы правы изменились и не по-детски.
Не я сборщиками не пользуюсь, у меня любительский и лентяйский проект :-). Правлю вручную у себя потом закидываю через фтп с заменой, вот я тоже думаю каждый раз сжимать если по сути все сжимается на сервере автоматически, передается браузеру а тот разжимает и кеширует.
У меня http сервер Apache. Сейчас, наверное, все применяют gzip сжатие как стандарт передачи данных, сейчас такие тарифы и сервера что, наверное, эта настройка не сильно влияет на его работу. И я, наверное, не правильно написал, я имел в виду, смысл сжимать предварительно знаете через такие онлайн сервисы или программы, которые все ненужное из css/js удаляют там лишние пробелы и т.д., если там происходит сжатие на стороне сервера на автомате, я в плане удобства т.к. файлы эти постоянно меняю редактирую.
И еще хотел спросить, когда происходит gzip сжатие на стороне сервера, в принципе этот механизм он делает при сжатии еще и так же как эти онлайн сервисы, которые удаляют все лишнее или нет.
Почему, даже я достаточно ленивый человек переходил по ссылкам на источник, а особенно когда внутри не было картинок.
А как это сказывается на поисковиках они определяют, что основная статья находится у меня на сайте если я пишу снизу источник и ссылку или Дзен это закрытая/отдельная от поисковиков система.
И еще хотел спросить – старые статьи, размещенные на сайте можно туда добавлять.
Все статьи как бы официально права на них у меня, но интернет есть интернет, и я не исключаю что их по нему раскопировалось достаточно много.
Спасибо за ответ, так я, наверное, и сделаю, и проще, и не в напряг мне :).
Но все же интересно что за директивы такие NO_AUTO_CREATE_USER, и
NO_ENGINE_SUBSTITUTION?
Так если это не на что не влияет, то тогда можно оставить все как есть при условии что все нормально работает, и не обращать на это внимание?