- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Вот с мобильного.
Фиг знает что ты хочешь показать
403 если что.
И так выглядят все твои картинки кроме страпоста.
По поводу циферок.. Попугаи никуда не делись, ереси стало больше (чего стоит только наглое продвижение webp...)
Но да, эту фейкомерялку для хомячков уже называть фейком наверное не стоит - хоть начали показывать время отдельных элементов.
И, народ, проверяйте те же сайты на нормальных сервисах. https://tools.pingdom.com/ и тп.
И, народ, проверяйте те же сайты на нормальных сервисах. https://tools.pingdom.com/ и тп.
pingdom после недавнего своего обновления сдулся:
Беру свой сайт - первая проверка всё нормально, тут же проверяю другую страницу своего сайта - чтобы было всё серьёзно их сервис сбрасывает браузерный кэш... но не весь кэш - у элементов которые посылает сервер-пуш не сбрасывается ! Видимо о такой технологии они пока не слышали :) Ну и получается что при первой проверке файл стилей и файл скриптов весят по 70 с копейками килобайт а при второй уже по 200-300 байт (с кэша диска где сервер-пуш кэшируется).
Так что остался номальным gtmetrix и webpagetset.
чтобы было всё серьёзно их сервис сбрасывает браузерный кэш.
Всё правильно он делает, неча на зеркало пенять :)
Всё правильно он делает, неча на зеркало пенять :)
что браузерный конечно правильно - но и кэш сервер-пуш файлов сбрасывать должен !
Те два что я упомнул это разумеется делают.
А пингдом в повторных тестах погоду показывает :)
Вот конференция Google на эту тему + там этот инструмент описан.
Вообще есть очень полезная информация.
https://www.youtube.com/watch?v=reztLS3vomE&feature=youtu.be
Вы взрослые люди ,вы серьёзно думаете что там рандом, что цифры взяты с потолка? Серьёзная компания будет просто так это делать? Вы даже не понимаете принцип работы веб сайта?
Ну это вера в чистом виде. Конечно же серьезная компания никогда не обманет. Конечно же такая глобальная компания как Гугл желает только добра.
И так далее.
Но это лирика.
Человек разумный - может сделать выводы на основе имеющихся фактов. Вот были такие параметры и вдруг стали совершенно другие. Зачем проводилась вся работа предыдущая? Если сайт ранее был зеленый, а теперь нет - как быстро он рухнет с первой (ну, у нас же все сайты с 90+ процентами на первом месте, так?) на 150 позицию? Ну то есть типа алгоритм изменился, ребят, всё, давайте переделывайте или из топа вылетите.
И наоборот: сайт был оранжевый, а тут вдруг зеленый. Что я сделал правильно? Ничего не делал. Так может это и есть самый правильный подход: ничего не делать и дожидаться правильного апдейта сервиса, глядишь, через пару годиков они нормальный сервис сделают, а не этот цирк с истериками из-за 2кб-скрипта?
Если для того, чтобы осознать, что 50-мегабайтные картинки на сайте - это не есть хорошо, вам нужен сервис от гугла - ну, что тут сказать.
Ну это вера в чистом виде. Конечно же серьезная компания никогда не обманет. Конечно же такая глобальная компания как Гугл желает только добра.
И так далее.
Но это лирика.
Человек разумный - может сделать выводы на основе имеющихся фактов. Вот были такие параметры и вдруг стали совершенно другие. Зачем проводилась вся работа предыдущая? Если сайт ранее был зеленый, а теперь нет - как быстро он рухнет с первой (ну, у нас же все сайты с 90+ процентами на первом месте, так?) на 150 позицию? Ну то есть типа алгоритм изменился, ребят, всё, давайте переделывайте или из топа вылетите.
И наоборот: сайт был оранжевый, а тут вдруг зеленый. Что я сделал правильно? Ничего не делал. Так может это и есть самый правильный подход: ничего не делать и дожидаться правильного апдейта сервиса, глядишь, через пару годиков они нормальный сервис сделают, а не этот цирк с истериками из-за 2кб-скрипта?
Если для того, чтобы осознать, что 50-мегабайтные картинки на сайте - это не есть хорошо, вам нужен сервис от гугла - ну, что тут сказать.
В данный момент, задача сервиса показать, как ведет себя ваш сайт на мобильных устройствах с медленным 3G. В цифрах, в секундах.
Где-то читал, что снижение скорости загрузки амазона на 1 секунду обойдется компании в миллионы долларов.
В данный момент, задача сервиса показать, как ведет себя ваш сайт на мобильных устройствах с медленным 3G. В цифрах, в секундах
Всё это не более чем страшилки. Глобально ничего не поменялось - инфы мизер, половина фейковая. Только ещё и ересь про "устаревшие PNG и JPEG" добавилась.
Чтобы нормально анализировать сайт и устранять ошибки - есть более правильные инструменты.
Всё это не более чем страшилки. Глобально ничего не поменялось - инфы мизер, половина фейковая.
Что бы нормально анализировать сайт и устранять ошибки - есть более правильные инструменты.
Оно работает на основе Lighthouse
Вот более детальный инструмент https://web.dev
Он тоже работает на основе Lighthouse.
Просто в PageSpeed даются базовые рекомендации.
Да и вообще тема не об этом.
Кто не хочет этим заниматься - не надо.
Вопрос был - как минимизировать работу в основном потоке.
В данный момент, задача сервиса показать
Тоже смешно, от имени сревиса пишете?
Откуда вы вообще знаете про задачи? В священном писании прочитали?