rtyug

rtyug
Рейтинг
263
Регистрация
13.05.2009
Должность
perl,php,sql,javascript(jquery),freebsd/linux
Интересы
perl,php,sql,javascript(jquery),freebsd/linux
https://minfin.com.ua/blogs/94589307/115366/

да, можно попробовать, но если будет время

для этого надо в ЛС писать, один отзыв тут (есть и другие :) )

ЗЫ: тут на форуме спецов хватает

mayorov, надо смотреть...

например, удалите все лишние файлы (те которые в tmp), заодно включить логирование access, поменяйте пароль на фтп, не заходите через фтп на сайт и перезагрузите сервер

лучше, найти админа :)

Klam, может быть у них используется файловый кластер какой-то... который распределяет, реплицирует все эти файлы по серверам...

mayorov, дырку искать...! (может пароль с фтп угнали, например)

первое, что можно попробовать - это запретить выполнять файлы *.pl *.cgi в тех каталогах где сайт (и перезагрузить сервер)

<files~".(s?p?html | | cgi | pl)$">

deny from all
</files>

php_flag engine Off

обсуждали еще тут

смотря, что делает apache

если загрузка файлов, то CPU постоянно загруженный

нужно хорошо анализировать скрость работы скриптов и т.д.

можно попробовать, самый простой и быстрый Бинарный поиск, НО только если данные отсортированные!

меня просили такой написать для файла в 10Гиг

правда у ТС не много больше миллиона значений, по этому может быть будет критично

я бы попробовал еще, Квантовый Алгоритм Гровера, если будут много платить :) (шутка)

такой алгоритм применяли в поиске по неупорядоченной базе в 500Тб

ЗЫ: есть готовые решения и задача ТС не полностью описанная

6666:
Dekanis, не бред. Могло тормозить из-за количества одновременно вызываемых файлов. Это гипотеза. А как факт - поставил пустую страницу и ничего не тормозит.

я такое, тоже, вродебы давно когда-то замечал...

можно предположить, что стоит в конфиге директива при которой apache пытается открыть файл в конкретной ошибке и показать его, а в итоге этого файла нету, тоже...

ErrorDocument 404 /missing.html

но точно не уверен, надо смотреть исходники :)

rusevgen:

Вопрос: как организовать хранение этих данных? если например хранить это все дело в файлах, побив объекты на группы, даст это прирост в скорости доступа?

можно применить математические алгоритмы...

есть различные решения почти "из коробки", так же Berkeley DB и NoSQL

535i:
гугл именно так начал относиться:
[ATTACH]83483[/ATTACH]
и так :(
[ATTACH]83484[/ATTACH]

интересно, сколько было страниц на сайте и в индексе гугла вместе с дублями?

absurdo,

11!!!

статья, mod_evasive - защита от DOS и DDOS атак, там есть скрипт тестирования:

# test.pl: small script to test mod_dosevasive's effectiveness

есть скрипты от флуда, с контролем соединений с каждого айпи...

и т.д. и .т.п

ЗЫ: любой админ может сам настроить анти-ддос (коненчо, если у Вас не очень сильный DDOS)

Всего: 2062