- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Раньше особо никогда не интересовался этим инструментом, но начитавшись и насмотревшись "авторитетных сеошников и оптимизаторов" про важность зеленой зоны в PageSpeed Insights, недавно проверил один свой сайт. По производительности получил 42, поисковая оптимизация в зеленке. Проверил пару сайтов из топа в этой же тематике - по производительности меньше 20 и по остальным меньше. При этом, один из них уже много лет вообще работает на htpp без s на конце и не парится и не покидает топ-3 многие годы, в том числе и в гугле.
В связи с этим вопрос - с учетом современных технологий и скорости интернета, насколько важны эти милисекунды и зеленые зоны в PageSpeed Insights и учитываются ли они в ранжировании сайтов хотя бы в гугле?
насколько важны эти милисекунды и зеленые зоны в PageSpeed Insights и учитываются ли они в ранжировании сайтов?
Вот так вот обрежу, потому что вы задали сложный вопрос. У вас две проблемы: вы посмотрели пару сайтов и взяли в качестве примера какой-то один сайт.
На деле у нас получается так:
Есть поисковый запрос у которого есть некоторое количество СЕРПов (раньше был один, теперь скорее ТОП-1 в степени n, где n количество посчитанных шаблонов для ПФ той или иной группы); Вот в каком-то из этих ТОП-1, у какого-то сайта будет многолетний ТОП без http, а в соседнем ТОП-1, по этому же запросу, будут важны миллисекунды. Как это все рассчитывать я хрен его знает.
Но, я обратил внимание на то, что Яндекс делит СЕРП на зоны: ТОП-1, ТОП-2, ТОП-3-4, ТОП-5-10, ТОП-11-50 и если взять не пару сайтов для каждой группы, а по паре тысяч, то, вы знаете, на самом деле складывается некоторая закономерность.
Например медиана для группы ТОП-1 может быть 0,015 сек, а для группы ТОП-10 0,8 сек... и так по всей выборке скажем из 30К запросов внутри кластера.
Может какая-то группа пользователей получать старый сайт без ssl в ТОП-1, в рамках этой выборки? Конечно. Мало того, вы удивитесь, но этих сайтов там будет даже не три.
Но вот в чем дело, статистически без ssl и медленнее 0,015 сек, вы, скорее всего, будете за 10-ой, как и большинство из вашей выборки.
Это прямой ответ на ваш вопрос. Из альтернативных версий, я надысь обнаружил, что у всех лидеров определенная модель сервера на фронте, а у всех оутсайдеров любая другая и, самое смешное, проблемы поставленные по проекту, не противоречат этому открытию.
Сложно? Можно проще.
Заходите в ЯВМ в мониторинг запросов и скачиваете отчет, там пара недель. В экселе пересчитываете колонки, беря везде среднее, а для позиции медиану (потому что там уже среднее) если медиана даст ноль, принимаете как ноль, даже если были дни с ТОП-1... ну вот.
А потом ищите запросы где у вас получается следующая картина: позиция ТОП-1, а покрытие спроса не 100%; находите и пытаетесь ответить почему)))) ТОП-1 же, как это может быть не 100%?))))