- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
О чем и речь! По сути можно вообще первый экран белым нафигачить и вот вам счастье)
Вот этого никогда не понимал. Да, будет ненамного (прям совсем ненамного) быстрее загружаться страница, отсутствие лишнего CSS понравится анализатору, но вот пользователь переходит на другую страницу, где используется на пару правил CSS больше и... подгружается целиком новый файл стилей, где правила пересобраны оптимизатором, вместо того, чтобы использовать имеющийся в кэше браузера загруженный файл стилей при загрузке первой страницы. Резко падает объективная оптимизация, зато анализатор доволен. 😀
Вот этого никогда не понимал. Да, будет ненамного (прям совсем ненамного) быстрее загружаться страница, отсутствие лишнего CSS понравится анализатору, но вот пользователь переходит на другую страницу, где используется на пару правил CSS больше и... подгружается целиком новый файл стилей, где правила пересобраны оптимизатором, вместо того, чтобы использовать имеющийся в кэше браузера загруженный файл стилей при загрузке первой страницы. Резко падает объективная оптимизация, зато анализатор доволен. 😀
А зачем подгружать на каждой странице новый файл стилей и дублировать код в нем? Можно разбить css на блоки и каждый блок подгружать отдельно. К примеру header.css, footer.css, menu.css, userpage.css и. т.п. Разумеется это все делается не вручную, а сборщиком типа webpack.
А зачем подгружать на каждой странице новый файл стилей и дублировать код в нем? Можно разбить css на блоки и каждый блок подгружать отдельно. К примеру header.css, footer.css, menu.css, userpage.css и. т.п. Разумеется это все делается не вручную, а сборщиком типа webpack.
Опять же много (да и вообще больше одного) файлов CSS не нравится анализатору, он скажет при анализе, что оптимальнее упаковать все файлы стилей в один.
Опять же много (да и вообще больше одного) файлов CSS не нравится анализатору, он скажет при анализе, что оптимальнее упаковать все файлы стилей в один.
Есть примеры сайтов с такой рекомендацией? В размещении файлов в нескольких css вижу только один минус - увеличение количества сетевых запросов. Но для современного сервера это вообще ни о чем.
Google pagespeed - это не панацея, это инструмент для реализации хороших практик на сайте. Какие - то метрики в нем важные, а какие - то не очень. Выполнив основные рекомендации - страницы будут загружаться быстрее и сайт будет вести себя предсказуемее. Соответственно это положительно скажется на пользовательском опыте - а это самое главное. Вы же для людей делаете сайты, а не для гугла?
Разговор о том, что Гуглу это не нравится непосредственно в Гугл сёрч панели, считается ошибкой, из-за которой может быть хуже ранжирование. Хуже ранжирование - меньше показов людям сайта "для людей".
Разговор о том, что Гуглу это не нравится непосредственно в Гугл сёрч панели, считается ошибкой, из-за которой может быть хуже ранжирование. Хуже ранжирование - меньше показов людям сайта "для людей".
В панель приходят уведомления только о грубых недочетах, типа высоких CLS и LСP. Из-за предупреждений типа избыточного html и css кода вряд ли будет понижение в ранжировании. С большей вероятностью произойдет понижение, если будет прятаться основной контент.
Не, не только вы, я вот тоже, и я думаю в тихую другие, т.к. кто бы что не говорил, а косвенно это влияет на загадочный SEO, и, если заняться экзорцизмом с сайтом можно в теории получить бонус к посещаемости.
Надо создать команду, кто глумится с этим pagespeed от гугля. Я тоже где-то искренне верю, что в итоге какой то результат этого да будет..