- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Сайт на голом php без фреймворков. + база. Условно сайт статейник с большим трафиком.
4-5 миллионов просмотров. Высокая нагрузка на б.д. и т.д.
Что значит "просмотр" в Вашем случае? Страница с десятком картинок? Или такая же страница с большим (видео) файлом, который смотрят при каждом просмотре страницы? Если только обычная страница с обычными картинками, то достаточно VPS за 2 (два) бакса в месяц, плюс место для файлов на быстром устройстве, остальное Вы платите за PHP, MySQL, и другое модное программное обеспечение.
С каких это пор мускля не умеет в мультипоток? Прекрасно может
https://dev.mysql.com/doc/refman/8.4/en/faqs-general.html#faq-mysql-support-multi-core
Каждый сеанс (подключение) выполняется в одном потоке
С Вашей же ссылки
"A single core is usually used to service the commands issued from one session."
Страница с десятком картинок? Или такая же страница с большим (видео) файлом, который смотрят при каждом просмотре страницы?
Там у него тексты и видео обучающие, множество переходов с других сайтов.
В основном это всё смотрят студенты, которые вообще способны сессии закрывать рандомно и в любой момент.
Думаю, что сканируют в сильных объёмах и AI сканеры и сканеры ссылок и боты.
В общем всё, что может быть - всего в полном объёме..
мммм.... кто быстрее обслужит 1000 одновременных клиентов 16 ядре или 32 ядра? + MySQL тоже не умеет в мультипоток! Что про неё то не говорите?
p.s. нельзя так сравнивать.
Читаем начало топика: "Добрый вечер. Для php важна производительность одного ядра процессора?"
Причем тут mysql? Вопрос стоит именно про PHP. Он будет вашим бутылочным горлышком и замедлит всё приложение.
Быстрее обслужит != больше запросов обработает.
1000 одновременных клиентов 8 ядер 3.7ггц может не выдержать - да, в то время как 32 ядра их выдержат - да
Но каждый процесс этих клиентов будет обрабатываться, условно, 3 секунды, когда как 100 одновременных клиентов на 3.7ггц отработает каждый процесс за 1.5 секунды
Еще раз - php не multi thread language. Он не может 1 запрос обработать на 4 ядрах. Сможет, только если устроить ему fine tuning, в который добрая половина участников топика не сможет. Да и зачем? Есть более быстрые языки и интерпретаторы
Это все правильно для тяжолых запросах в небольшом количестве. А при огромном количестве запросов больше ядер выиграют и существенно.
да, но проиграют во времени ответа, если ничего не готовить как надо.
а бизнес скажет - зачем нам возможность обработки 1000 запросов, если мы отвечаем 5 секунд?!
Читаем начало топика: "Добрый вечер. Для php важна производительность одного ядра процессора?"
Причем тут mysql? Вопрос стоит именно про PHP. Он будет вашим бутылочным горлышком и замедлит всё приложение.
Быстрее обслужит != больше запросов обработает.
1000 одновременных клиентов 8 ядер 3.7ггц может не выдержать - да, в то время как 32 ядра их выдержат - да
Но каждый процесс этих клиентов будет обрабатываться, условно, 3 секунды, когда как 100 одновременных клиентов на 3.7ггц отработает каждый процесс за 1.5 секунды
Еще раз - php не multi thread language. Он не может 1 запрос обработать на 4 ядрах. Сможет, только если устроить ему fine tuning, в который добрая половина участников топика не сможет. Да и зачем? Есть более быстрые языки и интерпретаторы
Вы берёте цифры с потолка и на них строите свои доводы. Не делаются так замеры и выводы. Всё это надо тестировать в реальных условиях.
да, но проиграют во времени ответа, если ничего не готовить как надо.
Ryzen умеет все ядра использовать. А тот, что AMD EPYC 7502P он по моему мнению только для виртуалок и не заставить в нём из за IOMMU, чтобы все ядра работали как один комплекс. (Как то так, слышал такое)
Еще раз - php не multi thread language. Он не может 1 запрос обработать на 4 ядрах.
Один запрос и никто не может обрабатывать на разных ядрах, а вот распарралелить вычисления разве не умеет? Вроде мне тут рассказывали что в пхп давно завезли многопоточность?
Вы берёте цифры с потолка и на них строите свои доводы. Не делаются так замеры и выводы.
я беру цифры исходя из опыта на голом железе, где никакой настройки не производилось. откуда вы берете цифры я не знаю
Вроде мне тут рассказывали что в пхп давно завезли многопоточность?
умеет за счет pthreads, который из коробки никем не используется. да и для других задач он создан
условный битрикс/вордпресс как есть не будет использовать несколько ядер в моменте
+ не забываем про возможности воркеров, если используем апач и php-fpm, если nginx/иное
Всё это надо тестировать в реальных условиях.
вот протестируйте и выложите сюда свои результаты. удивите общественность!)
AI сканеры и сканеры ссылок и боты.
У меня антипарсер есть. Блокирует, если превышены запросы.
Кроме этого в robots.txt
User-agent: ClaudeBot
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: dotbot
Disallow: /
User-agent: SeekportBot
Disallow: /
User-agent: AhrefsBot
Disallow: /
User-agent: Amazonbot
Disallow: /
User-agent: serpstatbot
Disallow: /
User-agent: GPTBot
Disallow: /
User-agent: AwarioRssBot
Disallow: /
User-agent: AwarioSmartBot
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: anthropic-ai
Disallow: /
User-agent: Omgilibot
Disallow: /
User-agent: Omgili
Disallow: /
User-agent: FacebookBot
Disallow: /
User-agent: Diffbot
Disallow: /
User-agent: Bytespider
Disallow: /
User-agent: ImagesiftBot
Disallow: /
User-agent: cohere-ai
Disallow: /