- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт, на котором в пиковые моменты траф приближается к 100к в сутки. Выше какой-то невидимый потолок, хотя есть куда расти. У некоторых сайтов в тематике трафа раза в 3 больше. Траф смешанный - информационный и загрузочный.
В принципе я не замечаю никаких тормозов даже в самые загруженные дни. Сервер настраивал профи, установлено хорошее кеширование, страницы открываются быстро. Только вот никаких точных сравнительных тестов, измерений и статистики у меня нет.
Теперь вопрос. Могут ли ПС специально ограничивать позиции, чтобы не грузить сайт?
То бишь логика такая: выше позиция > больше трафа > сильнее нагрузка на сервер > более медленная работа > недовольный посетитель.
У них же забота о пользователе на первом месте. Так вот возможно они как-то поняли при каком максимальном трафе сайт не тормозит и искусственно ограничили позиции?
Google PageSpeed показывает следующие результаты:
69 / 100 Скорость
60 / 100 Удобство для пользователей
81 / 100 Рекомендации
Если распределить нагрузку с одного сервера на несколько, будет ли в этом толк в плане роста позиций? Сейчас всё в одном ведре - БД, файлы, картинки... А если сделать отдельный сервер для БД и отдельный для файлов?
Диванных теоретиков прошу не беспокоиться. Интересует личный опыт.
Лучше разнести и сделать все показатели по 85 минимум.
По опыту если тормозит, то может и упасть- а тогда позиции точно просядут.
Насчет роста- в сложных тематиках он был, после настройки PageSpeed Insights по 90 всего.
нет, такой логики у поисковиков нет, да и вообще она не логича :), если сайт посещаемый и сервер не справляется, то тут уже Ваша проблема, да и если сервер будет перегружен, то поисковый робот просто не сможет все нормально просканировать, следовательно начнут выпадать страницы, и падать рейтинг.
То бишь логика такая: выше позиция > больше трафа > сильнее нагрузка на сервер > более медленная работа > недовольный посетитель.
Ок, а как тогда ПС узнают, что у вас творится на площадке и как сделают прогноз перегрузки сервера, учитывая, что количество посетителей онлайн величина тоже для них, как правило, недоступная? и известно ли им какой у вас хостинг вообще? VPS/VDS или shared?
У гугла, скорость ответа - это ранжирующий фактор. У Яндекса в его формулу тоже наверняка заряжено.
Если одна страница собирается с нескольких доменов, это замедляет загрузку за счет медленной работы системы DNS, которая принципиально медленная и ускорить вы ее не можете. Потому лучше отдавать для пользователя страницу с одного домена, а распределение нагрузки по серверам решать у себя внутри как-то иначе.