Советую: сделайте lazy load только для тех изображений, которые не влазят в экран ("виртуальный") в мобильной версии PageSpeed Insights.
funkislota, гугл вас подводит к сжатию в его любимый формат - webp. В принципе, он неплохой, но не все браузеры на данный момент его понимают.
SE-0, все предложенные Вами варианты уже учтены.
fliger, выставил в консоли желаемую скорость ("переступил через себя":)) - ночью выставил, сегодня утром уже сработало (кстати, похоже Гугл отрабатывает все заявки в 0:00 по тихоокеанскому времени).
Pliny, я Вас полностью понимаю, и использую почти всё Вами предложенное. К примеру, кеш у нас жосткий: 8гиг памяти используем для хранения ~9млн. наборов данных(считай, полного контента страниц). Коэф. сжатия 1/5, эффективность кеша 75%. В ближайшее время, скорее всего, придется взять железку на 32-48гиг оперативы.
По-поводу "никак" и "никакие": вчера за полдня удалось программно "притормозить" бота примерно на 10% - но эффективность сомнительная (ресурсоёмко). По итогу в консоли желаемую скорость выставил ночью, утром уже "включилась".
не всегда так получается - чаще бот приходит первым, чем юзер, а искусственно нагонять шлак - это бешенные потери ресурсов. Решение я чуть выше написал.
Dram, я бы Вам незадорого продал, но не хочу по заднице получить от Г :)
XPraptor, железо позволяет. Я только "ЗА", чтобы Гугл кушал мои страницы с максимальной скоростью - для этого с моей стороны созданы все условия.
Проблема в другом: в процессе сканирования расходуются сторонние ресурсы (есть лимиты, квоты), которые сайт активно использует. Вот с этим приходится считаться. Не всегда есть возможность их купить даже при наличии денег. ---------- Добавлено 10.12.2018 в 17:58 ----------
вот это новость.... в моём понимании эта настройка должна была бы срабатывать чуть ли не на следующий день. ---------- Добавлено 10.12.2018 в 18:08 ---------- foxi, я припоминаю, что совсем недавно Вы в Яндекс ветке подобный вопрос подымали. Кажется, Вашим решением было периодически http-код 503 отдавать.
Это оправдало ожидания или Вы нашли другое решение?
насколько я помню, Гугл это уже игнорирует
Dram, самое тупое это давать пространственные комментарии. Что бы Вы делали, если бы, к примеру, Ваше железо уперлось в пропускную способность канала? лимит трафика? возможности железа держать открытые коннекты? финансирование проекта? лимиты сторонних сервисов?
Вы наверное банально ответите либо менять железо, либо идти на завод :)
Вопрос с ограничением бота возник исключительно из-за того, что мои ресурсы не безграничны: когда бот выгрызает все квоты/лимиты сторонних, используемых мною сервисов, нужно его усмирять, а менять стратегию работы сайта уже (на данный момент) некуда. Своё железо тут не причем.
Ashlander, 58/98. Соглашусь с Вами. Всё произошло когда было 42/82. Подтянул мобильную версию и вроде как восстанавливаюсь.
Ashlander, буквально несколько дней.
Самое примечательное - были практически все признаки мишки.
lap09, исключительно по PageSpeed Insights/Для мобильных - размер/расположение элементов сайта, отложенная загрузка изображений, уменьшение css/js, вынос некоторой статики на cdn
Кто не в курсе, спешу обрадовать:
вот пациент:
[ATTACH]179783[/ATTACH]
зы: была же мысль об этом, но также грешил на Панду, сразу начал мобильное юзабилити ковырять... что-то получилось )
Toyvo Glumov, да, есть небольшое движение