- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Почему бы не сделать то же самое, но по логу? Добавить серверу еще один customlog и считать время...
Потому что в линуксе возникнут проблемы при большом количестве открытых файлов.
Допустим при 1000 вхостах будет открыто для каждого по одному access_log, плюс в зависимости от панели еще один лог для считалки траффика.
Добавим еще один лог и апач не запустится.
А начинающие хостеры любят продавать анлим субдомены итд итп
Как вариант можно было бы использовать общий лог для всех вхостов.
Но парсинг этого лога сам по себе будет жрать большое количество ресурсов.
Перл в этом случае уже не самый лучший инструмент.
Ну а точечные замеры позволяют получать если не точное количество времени cpu, хотя бы ориентировочные данные по нагрузкe CPU пользователями.
remsys, и что потом? "вы отключены, потому что нашей наколенной утилите показалось, что вы превышаете лимит CPU" ? никаких ведь количественных характеристик. несерьезно.
remsysнесерьезно.
что несерьезно? :)
Что Вам бесплатно предоставили наработки софта на которую не дается никакая гарантия и с которым делаете все что хотите?
Хоть дописывайте и плагин собственный к Cpanel/DA делайте, а потом продавайте людям, как писал кто-то тут.
Готовое решение будем бесплатно предоставлять нашим клиентам, возможно и общественно выложу.
Ну и как результаты работы этого решения преподать пользователю ?
если нету количественных характеристик, то нету и оснований для отключения пользователя.
Чето-то там показалось утилитке запущеной в определенные моменты времени. Вы еще в договоре так и пропишите.
например, в sa все четко : израсходованно столько-то секунд времени процессора класса core2duo за сутки. если там 30% - это основание для блокировки.
Единственное что такая статистика покажет - процент загрузки относительно остальных пользователей, не учитывая реальную производительность сервера.
Вы, пожалуйста, опубликуйте список хостеров, которые попытаются это использовать.
Сторонится буду.
Как вариант можно было бы использовать общий лог для всех вхостов.
Но парсинг этого лога сам по себе будет жрать большое количество ресурсов.
Перл в этом случае уже не самый лучший инструмент.
Волков бояться - в лес не ходить. ;)
cpanel свои логи трафика очень быстро обрабатвает - на глаз фактически не заметно.
И обработка лога процессорного времени тоже не так уж много ресурсов потребует, если запускать скрипт регулярно, чтобы лог не успевал вырасти большим.
Кроме того, можно писать в лог только обращение к скриптам и не фиксировать запросы к статическим файлам типа картинок, архивов и т.д.
Волков бояться - в лес не ходить. ;)
cpanel свои логи трафика очень быстро обрабатвает - на глаз фактически не заметно.
И обработка лога процессорного времени тоже не так уж много ресурсов потребует, если запускать скрипт регулярно, чтобы лог не успевал вырасти большим.
Кроме того, можно писать в лог только обращение к скриптам и не фиксировать запросы к статическим файлам типа картинок, архивов и т.д.
Тут дело не в обработке, а в количестве открытых файлов.
Boris A Dolgov, +1
Во-первых, в линуксе вроде нет особых проблем с дескрипторами файлов.
Во-вторых, есть методики это обойти. например древний модуль http://search.cpan.org/~rgarcia/perl-5.10.0/lib/FileCache.pm
в третих, я тут подумал, вон то поделие имеет право на жизнь, как монитор, к данным которого обращаются уже после обнаружения длительного периода 100% загрузки сервера другими средствами.
Тут дело не в обработке, а в количестве открытых файлов.
Дык зачем каждому виртуальному хосту свой лог? Одного на всех хватит за глаза. Да и проще один обрабатывать, чем несколько.
Хотя если в виртуальных хостах заданы customLog, то придется каждому их них добавить еще одну параллельную директиву, указывающую на общий лог, что потребует еще по дескриптору.
Но почему, собственно, количество открытых файлов - это проблема? Даже в той же cpanel в easyapache есть опция что-то типа rise open file limits...
Пускайте скрипты от пользователей а не от nobody и решайте проблему штатными средствами
P.S. Парсинг логов порой берет больше ресурсов чем потребляют юзерские скрипты, которые их сгенерили