Вот именно, судя по моей внутренней статистике - посещаемость за 21 была примерна такая же как и за 20, а доход (уже типа после начислений) процентов на 30 меньше, это при том, что цена клика за этот день была существенно выше. Меня тупо за 1 день кинули примерно на 1000 рублей.
jpegoptim собран с MozJPEG?
Я на png пока тестировал
pngquant
это лучшее решение, но на 10-20% жмет хуже чем сайт из первого поста
Отвечаю сам себе. С помощью GPT протестировал что она советовала. Лучший результат дало это решение (но все равно немного хуже чем сайт выше)
sudo apt-get updatesudo apt-get install pngquantpngquant --ext .png --force /путь/к/папке/с/изображениями/*.png
Почти все тут описывал https://searchengines.guru/ru/forum/954988/page2#comment_14885499
P.S. соврал выше - 7 лет прошло, оказывается...
У меня есть белый список подсетей поисковиков в Nginx + разделены логи. Есть лог в который попадают запрос с Юзерагентом поисковика, но IP не из моего белого списка. Вечером они автоматически проверяются обратным DNS запросом и если это реально IP поисковика - то мне на почту приходит уведомление о необходимости обновить белый список.
Этот белый список элемент защиты, реализованный мной с помощью Nginx и geoip. Так вот - использую я его уже 8 лет на сайтах с десятками тыщ юзеров в день, за это время письмо о необходимости обновить список приходило раз 10 (в основном боты Яху). Новый IP бота гугла добавил 1 раз за 8 лет.
Тоже думал над этим год назад, переписывая свои сайты на самописный MVC движок и выбрал чистый JS. Логика была следующая - сильного интерактива не планировалось, а для форм и ajax запросов не зачем таскать на каждую страницу 100 кб кода. В итоге подключаю JS только там где нужно и там несколько кб, редко десятков кв.
Кто, кстати, в курсе - gpt пишет без ошибок на китайском?
Идея в том, что baidu может не шарить в ИИ, как гугл и давать траф нормальный
В Байду есть собственный аналог GPT заточеный под китайский - Ernie Bot