- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Тем более. Apache сейчас используется только для поддержки .htaccess, он очень прожорливый,
В очередной раз напоминаю, что он прожорливый только без nginx. А все описанные "ужасные" ситуации представляют собой разбалансированную настройку.
Практически никакой разницы как обернуть php нет. Думать надо о другом.
Andreyka, Hawen, сейчас уник "страниц" до 100млн будет
Хм... В SQLite? :)
Хм... В SQLite? :)
Более 100 млн комбинаций можно сделать из 12 записей. Точнее, почти 500 млн. :)
Хм... В SQLite? :)
🤪 да давайте похоливарим, и расскажем как плох sqlite.
в базе 7.2 млн записей. Только что снял данные:
Поиск (FTS4) по ним при нагрузке 50-60 запросов в секунду отрабатывает в среднем за 0.24 сек.
---------- Добавлено 27.03.2016 в 16:02 ----------
с MySQL такой поиск требует раз в 5-10 больше ресурсов проца и оперативки при этом по скорости выигрыш размере статистической погрешности.
Andreyka, Hawen, там выборки с бесчисленным количеством вариантов
Ну тогда ограничивайте ботов, раз они только трафик жрут и прибыли не приносят
Andreyka, боты все свои, нужные. Но моя задача заработать самому, а не заработать хостерам и датацентрам, используя лишние мощности, которые можно уменьшить оптимизацией и сэкономить себе на бутерброд с икрой или хотя бы сыром.
вообще ничего, в 99% запросы идут к скрипту который отдает данные в xml формате.
лишние мощности, которые можно уменьшить оптимизацией
Не совсем по теме топика, но как альтернативный вариант.При такой постановке задачи, если бутылочное горлышко именно в связке php + web server, а не в СУБД, то посмотрите в сторону Casablanca https://casablanca.codeplex.com/. Это будет реальный прирост, по сравнению с любыми вышеперечисленными вариантами. XML-a нет, но есть JSON из коробки. XML при желании прикручивается.
🤪 да давайте похоливарим, и расскажем как плох sqlite.
в базе 7.2 млн записей. Только что снял данные:
Вопрос был вовсе не ради холивара, а просто хочу понять более сильнее с чем Вы имеете дело, может базу перестроить или ещё что-то
Пока наверное nginx + php-fpm одно из лучших решений
Вопрос был вовсе не ради холивара, а просто хочу понять более сильнее с чем Вы имеете дело
Пока наверное nginx + php-fpm одно из лучших решений
Возможно, тестирую локально nginx + php-fpm, пока он в ошибки высыпается раньше, чем лайти. В лайти там пару настроек и настраивать особо нечего, все работает. nginx надо более тонко изучать...
Andreyka, боты все свои, нужные. Но моя задача заработать самому, а не заработать хостерам и датацентрам, используя лишние мощности, которые можно уменьшить оптимизацией и сэкономить себе на бутерброд с икрой или хотя бы сыром.
Тогда меняйте php на perl и пользуйте nginx+perl: http://nginx.org/ru/docs/http/ngx_http_perl_module.html