AlexVenga

AlexVenga
Рейтинг
190
Регистрация
10.04.2007
BasePelleta:
А сколько строк кода в таких сайтах?

Нельзя мерять программу строками кода!

Я вам на делфи напишу редактор БД ниразу не залезая в код.))))))

BasePelleta:
Не знал, что так критично ...

Ну вот что чаще всего делает мускул? выбирает данные из отсортированного набора данных.

Методов поиска я вам назову штук 5, а то и 10 с различной скоростью (от простого перебора, до деления пополам и деления на случайные отрезки).

А что такое отсортировать рандомно?

Я не спец в мускуле (внутренней его части), но алгорит генерации примерно такой:

1) берем псевдослучайное число

2) Берем второе псч, если оно не равно первому идем дальше, если равно берем другое пока не найдем отличное

3) Берем псч и ПРЯМЫМ ПЕРЕБОРОМ проверяем предыдущие, пока число не будет уникальным в рамках новой выборки.

n)...

уверен что оптимизатор запросов это както по другому делает, но всеравно это очень долго...

Оффтоп, господа крутые прогеры, а есть вариант получить набор данных в один двумерный массив сразу, а не перебирать циклом каждую запись из указателя? просто оч давно интересует... по типу SimpleXml_Load ???.

AlexVenga добавил 24.08.2011 в 17:43

netwind:

В конце концов, писать плохие запросы быстро - это выгодно. Многие сайты закрываются еще до того как их начнет беспокоить производительность mysql.

Согласен на все 100%!!!

по этому раз в пол года переписываю некоторые сайты с 0....

Это как

- что такое програмирование?

- Ну вот представь, берем деревянный сортир, и начинаем к нему на крышу пристраивать Empire State Building

Так что ТС, прекращайте плодить прогерские топики и делайте "чтоб работало", когда будет тормозить нещадно от наплыва народа - уже и денег будет достаточно на нормального архитектора-програмисто, способного все предусмотреть и заложить зарание.

Kamchess:

Думаю, что для человека, который зарабатывает на сайтах более полумиллиона рублей в месяц, многое в курсе легко и понятно ))) отсюда и отзыв такой )))

не пали контору.))))

Но на самом деле читается как интересная книжка и я понимаю что в какой-то момент ранее, мне бы такое было за радость... Вот могу сказать кому сейчас это было бы оч полезно - верстальщикам и продавцам-клепальщикам ГС! Чтобы потратили время на чтото в будущем и посмотрели что бывают доходы и проекты другого уровня. Я когда в первые увидел скока мона на 1 сайте не на ссылках зарабатывать ушел в себя и пару месяцев курил темы, форумы и ставил эксперименты пока выбрал свое.

Тогда не парьтесь, в массив и из него рандомная выборка сколько нужно - отработает точно быстрее рандома в мускуле.

Рандом для МуСКУЛ это сразу слоу квери....

создаю файл с серилизованной выборкой нужных полей БД (все поля короткие)

При обращении к странице проверяю сколько файл прожил и не пора ли его заменить, затем либо расерилизовываю в данные и вывожу, либо генерю новые, пишу в файл и вывожу.

Тока из файла надо читать не долгим и тяжелым fopen fread fclose - это дольше чем МуСКУЛ, а прочто filegetcontent/

Если места на диске до жопы то можно в файл html пихать и после проверки что файл нормальный сразу passthru делать и он вообще моментом на экран выскочит...

AlexVenga добавил 24.08.2011 в 16:25

просто в самом HTML его нельзя инклудить, надо сначала проверять на дату последнего изменения...

пишите, шура, пишите....

по отзывам, из того что я видел могу сказать что отзывать просто пока нечего - думаю чтото можно будет сказать через недельку - две)))

подбор тематик, определение со структурой и проч подготовительная шелуха (да простит меня ТС)...

по тематикам "темы" спалены - с циферками, довольно интересно...

у меня таких файлов 85к и обновляютя раз в сутки, но не по крону а по дате обновления файла чтобы не все сразу - работает прекрасно

выбирайте ID в массив и рандомьте его - array_rand($array,сколько новостей надо)

так проще и ненадо при выборе случайной новости проверять нет ли её уже

AlexVenga добавил 24.08.2011 в 15:41

блин, пока писал опередили....

AlexVenga добавил 24.08.2011 в 15:43

Joker-jar:
Как вариант, если, допустим статей в базе очень много, а выбрать надо всего 3-5 случайных, то рациональнее выполнить N запросов вида
SELECT ... FROM ... WHERE ID <= rand LIMIT 1

где rand - число в диапазоне 0..кол-во_статей, сгенерированное пхп

тут ещё надо смотреть чтобы новости не повторялись... неудобно....

Быстрее обрабатывался бы CHAR(25)

Nimor:
Почти 11 минут Вам надо чтобы скачать информации на 32 ггб, ну и про парсеры - я не представляю количество информации на 32 гигобайта.

Я и не говорю что забью их сразу и все.))))

-Перевод собственным словарем в режиме реального времени на ПХП с загрузкой словаря сразу в память и парсенных данных тоже до сброса в файл (так быстрее чем каждую строчку кидать в файлик) - около 1-2 Гб сейчас занимает легко

-Бывает и буклетики в илюстраторе сильно тяжелые - 2-3 гига подправить надо....

Вот первое что пришло в голову....

Просто сфера работ настолько обширна, что надо быть готовым ко всему.

Я обычно раз в 2 года, зимой, покупал себе самый мощный доступный в продаже на тот момент ноутбук и год - полтора спокойно жил не о чем не парясь...

Вот сейчас настала пора снова купить что-то подобное, хотя подождать тонких мак про тоже оч хочется.

AlexVenga добавил 24.08.2011 в 01:49

32 гб памяти - это чтобы файрфокс усрался её забивать.... и не смог....

А то он по 1-2 гб тоже любит покушать.... вот пусть подавится.)

AlexVenga добавил 24.08.2011 в 09:06

neznaika:

Почту в личку и перешлю прайс, с доп. батареями с док-станцией, выносным хардом, дополнительным винчестером, отличной мышкой, гарнитурой. Будет как раз.

2 раза отписал - тишина...((( Видимо придется всеже мак брать.(

Всего: 1612