iopiop

Рейтинг
25
Регистрация
23.12.2010
fdsfsfsdss:
вот насчет этого - это они имеют ввиду хорошо или плохо ?
в пункте 4.1.7 Recognizing Copied Content

Это хорошо

n00ne:
а есть какие-то конкретные доказательства о наличии spyware в фф, опере? я вот лично не вижу в логах что бы мой браузер что-то посылал гуглу. про хром еще можно поверить, но тоже весьма сомнительно...

Шлют статистику не броузеры, а тулбары.

Хромиум статистику не шлет, а хром (т.е. тот, который у всех стоит) шлет


этих провайдеров на каждом углу сотни и тысячи. Вы хоть представляете объем?

Я лично общался с одним западником который в такой конторе работает, покупают у провайдеров неперсонализированные (т.е. без имени-фамилии) персональные данные типа пол, возраст, профессия и т.д. и перепродают после обработки

Sigmo#ID:
ls -f (или -U) должна выдавать список без сортировки.

выдает. только алгоритм следующий

1) получить список файлов

2) обработать в соответствии с флагами

3) выдать обработанный список.

т.е. с флагами -f (-U) список файлов просто не сортируется, но в любом случае составляется.

вот код на пхп для удаления миллионов файлов без потребления памяти да и процессора:

<?php

$dir = '/directory/in/question';

$dh = opendir($dir)) {

while (($file = readdir($dh)) !== false) {

unlink($dir . '/' . $file);

}

closedir($dh);

?>

взято отсюда http://serverfault.com/questions/183821/rm-on-a-directory-with-millions-of-files

dkameleon:

пробовал:
find bin-tmp1/sess_000* > find.log

итог тот же.
ещё больше дробить.... ну, даже не знаю...

черт, правильно, ему же прошерсить надо весь список файлов.

ну вот здесь чел пишет как он удалил порядка 100-150 млн файлов

http://blogs.perl.org/users/randal_l_schwartz/2011/03/perl-to-the-rescue-case-study-of-deleting-a-large-directory.html

причем там написано почему ни ls, ни rm, ни find ему не помогли - они все строят список файлов сначала, что и пожирает всю память.

PS прикинуть размер списка файлов (т.е. сколько памяти потребуется) можно так ls -dl

как я понимаю, память жрется потому что создается список всех файлов в памяти.

попробуйте поставить фильтр, чтобы ограничить кол-во файлов на удаление, напр. сначала удалить все, что начинается на 'a', потом на 'b' и т.д., или что-то подобное, в зависимости от структуры названий ваших файлов.

скорее всего, при вашем кол-ве файлов, придется фильтровать не по одному символу, а по два, т.е. 'aa', потом 'ab' и т.д.

попробуйте ручками, если память не будет пожираться, значит скрипт писать надо.

babnicks:
Какими девайсами пользовались если не секрет?

Vertex 2, год на рабочей станции, пока живет.

Но скорость хоть и в разы выше чем сата-диск, но сильно ниже заявленной производителем на тестах.

Romka_Kharkov:
dkameleon, насоветовали вам тут :)

Вернитесь к истокам, зачем вам изначально папка с миллионами файлов сессий? наверняка же у них время жизни минут 10 :) Настройте удаление таким образом, что бы оно происходило чаще и затрагивало меньше файлов одновременно (к примеру). Ведь можно удалять все сессии старше 10 минут хоть каждую минуту :D

или раздел отдельный под tmp организовать и монтировать туда.

а потом грохать весь раздел сразу.

самый большой недостаток SSD - они очень плохо относятся к записи. Именно запись их убивает, причем убивает достаточно быстро, поэтому нагруженная на запись БД - это самая худшая область применения для них. Причем большие буфера из памяти в этом режиме не помогут совершенно.

то, что там скорости высокие - существенная правда, но очень сильно зависит, последовательное это чтение или случайными блоками по 4К, разница в скорости очень сильная.

еще совсем недавно у них летели контроллеры очень частно, а те часы наработки на отказ указывают наработку на отказ собственно ячеек памяти, а не контроллера. В последнее время отказы контроллеров случаются реже, но все еще случаются.

кстати, заявленная скорость - это пока ССД новая, как только объем записываемой инфы случается больше чем объем самой ССД (т.е. перезапись), скорость деградирует, и чем дальше, тем больше.

В общем, вещь достаточно ненадежная для сервера.

из ОС - вин7 из коробки оптимизирована под ССД, она их знает, определяет и настраивается под них, линукс допиливать надо.

Sandalia:

не забывайте, что сайты ТС попадали под агс. Чему он может вас научить?

тому как не попадать под АГС.

что тут непонятного?

Raistlin:
Угу. Я бы удивился, если бы он не начал тупить.

Raistlin добавил 13.10.2011 в 05:43
P.S. конфиг писать НАДО. Подо всё. А не тупо пользоваться дефолтом.

Raistlin добавил 13.10.2011 в 05:47
http://www.pentarh.com/wp/2008/07/11/test-results-apache-vs-php-fcgi/
Староват, тестируется не то, но общее представление даст.

Действительно староват, поэтому слишком неитересно.

Но не суть. Вопрос в другом - что тестировалось? Веб-сервер или пхп? Если веб-сервер, то при чем здесь пхп в тесте? Ведь даже в тесте, который вы привели, пишут, что статика не тестировалась, co статикой все намного хуже. Как вы прокоментируете фразу "если убрать обработку статики и всего прочего (напр с помощью ngnix)"?

Ваша проблема в том, что вы не читаете что вам пишут. А пишут вам все время одно и то же - nginx выигрывает с хорошим отрывом у апача на статике и на большом количестве соединений. Если вы в тест включаете пхп - все, статики нет, весь выигрыш нивелирутся тормознутостью пхп. Если тест производится на сотне соединений - разницы нет, что апач что nginx, современное железо отлично справляется с сотней-другой-третей ниток.

Всего: 259