Скорость работы сервера и позиции в выдаче

big boy
На сайте с 18.11.2006
Offline
355
571

Есть сайт, на котором в пиковые моменты траф приближается к 100к в сутки. Выше какой-то невидимый потолок, хотя есть куда расти. У некоторых сайтов в тематике трафа раза в 3 больше. Траф смешанный - информационный и загрузочный.

В принципе я не замечаю никаких тормозов даже в самые загруженные дни. Сервер настраивал профи, установлено хорошее кеширование, страницы открываются быстро. Только вот никаких точных сравнительных тестов, измерений и статистики у меня нет.

Теперь вопрос. Могут ли ПС специально ограничивать позиции, чтобы не грузить сайт?

То бишь логика такая: выше позиция > больше трафа > сильнее нагрузка на сервер > более медленная работа > недовольный посетитель.

У них же забота о пользователе на первом месте. Так вот возможно они как-то поняли при каком максимальном трафе сайт не тормозит и искусственно ограничили позиции?

Google PageSpeed показывает следующие результаты:

69 / 100 Скорость

60 / 100 Удобство для пользователей

81 / 100 Рекомендации

Если распределить нагрузку с одного сервера на несколько, будет ли в этом толк в плане роста позиций? Сейчас всё в одном ведре - БД, файлы, картинки... А если сделать отдельный сервер для БД и отдельный для файлов?

Диванных теоретиков прошу не беспокоиться. Интересует личный опыт.

✔ Как я генерирую статьи через ИИ, которые приносят трафик - https://webmasta.ru/blog/16-vkalyvayut-roboty-ne-chelovek-stati-s-pomoschyu-ii-kotorye-prinosyat-trafik
R_Tem
На сайте с 21.08.2008
Offline
137
#1

Лучше разнести и сделать все показатели по 85 минимум.

По опыту если тормозит, то может и упасть- а тогда позиции точно просядут.

Насчет роста- в сложных тематиках он был, после настройки PageSpeed Insights по 90 всего.

M7
На сайте с 23.12.2014
Offline
69
#2

нет, такой логики у поисковиков нет, да и вообще она не логича :), если сайт посещаемый и сервер не справляется, то тут уже Ваша проблема, да и если сервер будет перегружен, то поисковый робот просто не сможет все нормально просканировать, следовательно начнут выпадать страницы, и падать рейтинг.

alaev
На сайте с 18.11.2010
Online
861
#3
big boy:

То бишь логика такая: выше позиция > больше трафа > сильнее нагрузка на сервер > более медленная работа > недовольный посетитель.

Ок, а как тогда ПС узнают, что у вас творится на площадке и как сделают прогноз перегрузки сервера, учитывая, что количество посетителей онлайн величина тоже для них, как правило, недоступная? и известно ли им какой у вас хостинг вообще? VPS/VDS или shared?

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
Solmyr
На сайте с 10.09.2007
Offline
501
#4

У гугла, скорость ответа - это ранжирующий фактор. У Яндекса в его формулу тоже наверняка заряжено.

Если одна страница собирается с нескольких доменов, это замедляет загрузку за счет медленной работы системы DNS, которая принципиально медленная и ускорить вы ее не можете. Потому лучше отдавать для пользователя страницу с одного домена, а распределение нагрузки по серверам решать у себя внутри как-то иначе.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий