Dmitriy_2014

Dmitriy_2014
Рейтинг
370
Регистрация
01.07.2014
Интересы
Веб-технологии
LEOnidUKG:
Ничего не надо сжимать, это глупости. Gzip это делает лучше и налету. Сжатие... да какое сжатие, удаление пробелов и перенос строк? Пережиток прошлого века, когда сервера были слабыми и gzip на лету, было роскошью, да и скорость в 56,6-128 килобит было пределом мечтаний.
Сейчас это просто не нужно.

Вот я примерно об этом и думал и соглашусь с вами. Да, а скорости вы правы изменились и не по-детски.

NothingMatters:
Если используется какой-нибудь сборщик фронта (gulp, grunt, webpack, ...), то там обычно минификация добавляется как часть тулчейна, и вопрос как бы отпадает сам собой.
Если же после каждой правки нужно минифицировать файл вручную, то не вижу в этом смысла. Лишние 1-2кб погоды не сделают.

Не я сборщиками не пользуюсь, у меня любительский и лентяйский проект :-). Правлю вручную у себя потом закидываю через фтп с заменой, вот я тоже думаю каждый раз сжимать если по сути все сжимается на сервере автоматически, передается браузеру а тот разжимает и кеширует.

ctit:
А зачем тратить ресурсы сервера? Если файлы не изменяются, сожмите один раз. У вас ведь фрондом nginx стоит?

У меня http сервер Apache. Сейчас, наверное, все применяют gzip сжатие как стандарт передачи данных, сейчас такие тарифы и сервера что, наверное, эта настройка не сильно влияет на его работу. И я, наверное, не правильно написал, я имел в виду, смысл сжимать предварительно знаете через такие онлайн сервисы или программы, которые все ненужное из css/js удаляют там лишние пробелы и т.д., если там происходит сжатие на стороне сервера на автомате, я в плане удобства т.к. файлы эти постоянно меняю редактирую.

И еще хотел спросить, когда происходит gzip сжатие на стороне сервера, в принципе этот механизм он делает при сжатии еще и так же как эти онлайн сервисы, которые удаляют все лишнее или нет.

WIKIMEO:

Что касается "Моря трафика" благодаря ссылкам-источникам, то переходов как таковых не будет по ним.

Почему, даже я достаточно ленивый человек переходил по ссылкам на источник, а особенно когда внутри не было картинок.

А как это сказывается на поисковиках они определяют, что основная статья находится у меня на сайте если я пишу снизу источник и ссылку или Дзен это закрытая/отдельная от поисковиков система.

И еще хотел спросить – старые статьи, размещенные на сайте можно туда добавлять.

Все статьи как бы официально права на них у меня, но интернет есть интернет, и я не исключаю что их по нему раскопировалось достаточно много.

LEOnidUKG:
Оставляйте всё как есть. Я думаю WP там учтено и всё написано по "правилам".

Спасибо за ответ, так я, наверное, и сделаю, и проще, и не в напряг мне :).

Но все же интересно что за директивы такие NO_AUTO_CREATE_USER, и

NO_ENGINE_SUBSTITUTION?

LEOnidUKG:


И работайте дальше как и раньше. Ни на что, это не влияет.

Так если это не на что не влияет, то тогда можно оставить все как есть при условии что все нормально работает, и не обращать на это внимание?

Попробуйте плагин для WordPress Limit Login Attempts – вроде что-то блокирует, можно настроить количество попыток входа в админку и на сколько часов заблокировать ip. Ведет Лог и постоянно у меня в нем кто-то блокируется. Не помню тут или не тут, но вроде от брутфорс атак кто-то советовал установить.

burunduk:
мне никто ничего не блокирует и не гадит ;)

Везет Вам там в Силиконовой долине, а тут что не сайт, там где Google все грузится через одно место. Даже этот форум. :-(

burunduk:
и выставить счёт дурову ;)

Так не дуров тебе блокирует, тебе ‘свои’ гадят. Причем здесь он и гугл, или он работает в гугле...

Всего: 2005