- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как вы поступаете?
Запускается ли php вообще.
Можно тупо обрубить сессии и куки и всем неавторизированным отдавать одну инфу без старта php.
Но как отслеживать запросы в рамках сессии, просмотренные товары.
Ну вы наверно поняли.
Да все это делается достаточно просто, вся персональная информация убирается в api к которому фронт обращается через ajax.
То есть отдаете контент, например через статичный кэш nginx не дергая php, он для всех по сути одинаковый, а потом отправляете со страницы нужные вам ajax запросы на просмотренные товары, на получение корзины и прочих данных связанных с текущим пользователем.
Да все это делается достаточно просто, вся персональная информация убирается в api к которому фронт обращается через ajax.
То есть отдаете контент, например через статичный кэш nginx не дергая php, он для всех по сути одинаковый, а потом отправляете со страницы нужные вам ajax запросы на просмотренные товары, на получение корзины и прочих данных связанных с текущим пользователем.
Ну или кэшировать только тяжёлые области, а не всю HTML страницу. Учитывая, что вопрос скорее всего по самописной CMS
Ну или кэшировать только тяжёлые области, а не всю HTML страницу. Учитывая, что вопрос скорее всего по самописной CMS
это сложно, это надо осваивать такие инструменты как varnish и подобные тулзы, задача то не стартовать php вообще, по этому проще nginx все наглухо закешировать, а персональное уже отдельно подтянуть
это сложно, это надо осваивать такие инструменты как varnish и подобные тулзы, задача то не стартовать php вообще, по этому проще nginx все наглухо закешировать, а персональное уже отдельно подтянуть
Да ладно, главное если самописное всё, сразу писать оптимизированное под задачи. Может быть кэш вообще не понадобиться.
Но с ajax тоже вполне себе отличная идея. Для всяких корзин, рейтингов и т.д.
Да все это делается достаточно просто, вся персональная информация убирается в api к которому фронт обращается через ajax.
То есть отдаете контент, например через статичный кэш nginx не дергая php, он для всех по сути одинаковый, а потом отправляете со страницы нужные вам ajax запросы на просмотренные товары, на получение корзины и прочих данных связанных с текущим пользователем.
А как отслеживать страницы, которые посещают роботы? (Ставлю эксперимент)
Удобно на переобход отправлять только страницы посещенные в диапазоне дат.
Да ладно, главное если самописное всё, сразу писать оптимизированное под задачи. Может быть кэш вообще не понадобиться.
Но с ajax тоже вполне себе отличная идея. Для всяких корзин, рейтингов и т.д.
Та ресурсов пока хватает.
Блоки контента кешируются.
Это на вырост.
Если вдруг с ПС попрет трафик.
Да ладно, главное если самописное всё, сразу писать оптимизированное под задачи. Может быть кэш вообще не понадобиться.
Оно то может и оптимизированное, но все равно построить какой нибудь каталог и фасетные индексы на странице это надо сходить в какую то БД как минимум, плюс весь обвес подтянуть, оно может и работать с виду быстро, допустим 200мс без кэша, но тут приходит 300RPS и сервак захлебывается, а nginx бы вытянул вообще в легкую и 300 и 3000. С кешом только одна большая проблема - это инвалидация.
Но с ajax тоже вполне себе отличная идея. Для всяких корзин, рейтингов и т.д.
Это тоже прошлый век так сказать =)) сейчас я уже делаю проекты api first и фронт это как правило какой нибудь nextjs или nuxtjs, тут вообще можно раскидать все на огромное количество сервисов и собрать это каким нибудь api gateway типа кракена, но у меня правда и проекты немного изменились =))) Но персонализацию давно уже выносят, я так еще делал на simplewine.ru в году так 2017-18, да и до этого делали, просто у меня до этого не было нагруженных проектов ))
А как отслеживать страницы, которые посещают роботы? (Ставлю эксперимент)
А как сейчас отслеживаете? Воспользуйтесь способом которым пользуются уже миллион лет, подгрузите пиксель в картинку чтоб на том конце был нужный вам скрипт
Если вдруг с ПС попрет трафик.
Что за проект? Ну какая категория проекта?