А для некоторых файлов ниже 2 Мб.
Нда...
Итак. Посоветуйте S3 хранилище с широким каналом )))
Ночью скорость была максимальная на тарифе моего провайдера, выдавало 10 Мб/сек. Но и людей почти не было.
Сейчас сколько точно людей качают сказать не могу, так как статистики нет. Беру по кол-ву пользователей на страницах загрузок - 200 человек.
Скорость упала до 2-5 Мб/сек.
В итоге попробовал:
У меня была такая проблема, но из-за монитора, а не операционной системы.
Оказалось проблема в ШИМ, он же PWM, на каком-то суперпоследнем на тот момент макбуке. Почитать подробней можно тут - https://habr.com/ru/companies/droider/articles/519746/. Пришлось поменять девайс. Раньше с IPS матрицами такого не было. А теперь перед покупкой приходится этот ШИМ изучать, но его не все указывают в характеристиках.
Но тогда почему в 10 не болят? Я могу только предположить, что либо с дровами какое-то изменение, либа сама система, возможно, как-то влияет на это мерцание.
Каким образом? Не дружу с этим, к сожалению. Смотрел в админке, нигде такой настройки не нашел
Скорее всего это невозможно сделать никакими настройками и Вам нужен программист.
Lazy load - это отложенная загрузка ресурсов, подробнее тут - https://developer.mozilla.org/ru/docs/Web/Performance/Guides/Lazy_loading
Для изображений всё просто - нужен обязательный параметр loading="lazy":
<img src="image.jpg" loading="lazy" alt="..." /
Скрипты тоже относительно просто лейзилоадить - достаточно обернуть их в ожидание загрузки страницы и только после этого начать загрузку скрипта. Но это всё в теории, а на практике я не знаю, как этот Элементор свои скрипты подгружает, возможно это обернётся тем еще геморроем по расковыриванию всего WP (я с ним не особо дружен, но дело пахнет дрянью).
Если нужно сохранить карусели - можно сделать lazy load.
Либо переделать всё на новые карусели, которые не жрут столько ресурсов и не требуют загрузки 100500 библиотек, либо вообще от них отказаться.
Факт.
Но по своему опыту вот что скажу. Когда сайт делается для галочки, когда не погружаешься в тематику, а еще хуже если вообще тематика далека от тебя (упаси боже какой-нибудь женский портал еще раз делать) - результата обычно почти нет. Что-то может стрельнёт, но скорее всего упадёт.
А когда ты в теме, когда глаза горят, когда эксперт - вот здесь магия происходит. Даже если есть штат авторов, то и следишь за ними по-другому, знаешь когда чушь пишут и тд. И такой контент больше пользователям нравится.
Вот в этом, в моём понимании, и заключается EEAT - шарить в теме и последовательно это доказывать в публикуемых на сайте материалах.
А зачем так часто снимать? )))
Я вот что заметил. Прыгают обычно какие-то второсортные сайты, в которые даже я не верю ))
Есть вот такой пример, где выдача по ходу законсервировалась:
Но у этого же проекта есть скауны:
И скачут обычно те страницы, которые объективно не лучшие в интернете.
Возможно дело в том, что яндекс, видя повторные запросы, пытается лучше угодить и подставляет разные результаты, убирая/показывая спорные страницы, чтобы разнообразить пользовательский опыт и бла бла бла... Если каждый раз одно и то же выдавать, то это как пытаться получить разные результаты эксперимента, повторяя одни и те же действия, что является признаком глупости.
Вырывать из контекста можно любой фактор, те же ссылки, и долго спорить работают они или нет.
Я именно такие эксперименты с EEAT не ставил, так что крыть мне особо нечем, кроме как выдачей, своим опытом и здравым смыслом )))
Для меня суть EEAT - это не только ссылка на автора, она сама по себе ничего не докажет. EEAT - это ж целая вереница критериев оценки качественного контента.