Santyago

Рейтинг
139
Регистрация
15.07.2008
megaBOT:
вот, что написал в тикете один из сотрудников техподдержки, когда я переехал на новый впс (когда мой впс был загружен на 100% в течении 8 часов, то есть когда обновились НС-сервера):

"2000 запросов за 20 секунд = 100 запросов в секунду"

переезжать на новую цмс не буду... :)

И не надо.

Нет ничего глупее сравнения по скорости работы пачки совершенно разношёрстных систем. С героическими криками "Я работаю на самой быстрой ЦМС Вордпресс!!!" в последствии. Ламерство ппц.

Да, Джумла тяжёлая. Но, простите, а что вы хотели от системы с MVC, компонентной структурой, модульностью, внутренней системой events? Чтобы она работала со скоростью plain html? Или хотя бы как блогодвиг Вордпресс, который на статус полновесной ЦМС никогда и претендовал?

Мерять качество ЦМС по количеству запросов к БД - это ламерство, исходящее от людей, которые ничего не понимают в устройстве ЦМС, но которым крайне хочется поумничать.

Если Вы выбрали под свой проект, исходя из каких-то критериев, Джумлу, то значит надо работать с Джумлой. Знать специфику системы, уметь "выбрасывать лишнее" при заточке системы под конкретный проект, знать узкие места, знать как настроить сервер конкретно под Джумлу. Надо понимать, что кеширование - это неотъемлимая часть любой высоконагруженной системы на любой платформе и соответственно грамотно его использовать исходя из средств, предоставляемых Джумлой. А крики, что под проект с нагрузкой в 20 килохостов надо писать свою двиг - это ламерство.

По теме. Ребята из Webo оптимизируют загрузку Яваскриптов и ЦСС. Это _никак_ не влияет на скорость генерации страницы сервером. В комплексе, конечно, надо решать и вопрос скорости рендеринга страницы браузером. Но конкретно под Вашу задачу в первую очередь надо ускорять серверную часть. Настройка сервера + кеширование + обкусывание лишнего из ядра системы + профилирование кода + оптимизация запросов под конкретный проект. Как? Ищите специалиста по Джумле хотя бы с пятилетним стажем и опытом работы с крупными проектами. Да, это дорого. Но бесплатно можно получить разве что псевдо-программиста, который разговор начнёт с криков "Джумла гавно! Да я твой проект на Вордпресе за два дня подниму!". Тут уж каждый волен выбирать по своим предпочтениям и финансовым возможностям.

Senator007:
Человек кликает на страницу, я это информацию записываю в таблицу people о времени.. потом во всех селектах сравниваю время с текушим с временем в таблице people этого человека и указываю: на сайте он или нет.. Но это большая нагрузка на таблицу people при каждой update..
При большом онлайне происходят заторы, какая есть другая технология отслеживания на сайте человек или нет?

Жесть... Наша песня хороша, запевай с начала.

Ещё раз: memcached. Что смущает? Непонимание, как это будет работать в целом? Если у Вас планируется 1 лям хитов в сутки и Вы не знаете как делать сайты - закажите у профессионалов и не морочьте людям головы. Если чисто теоретический интерес, то Вы уже получили достаточно информации, чтобы рыть по заданным направлениям глубже и экспериметировать, экспериметровать, экспериментировать. Удачи.

Helias:
Если доработанный DLE, Joomla, etc решает поставленные задачи, то какие проблемы?

Проблемы в религиозных различиях :)

А те, у кого с толерантностью всё нормально, берут наиболее подходящий двиг/фрэймвёк под конкретную задачу, затачивают его и зарабатывают вечно зелёных президентов. И в холиварах типа "Джумла - гавно, ДЛЕ - круто" участвуют разве что поржать. :)

Чеширский:
Информация не имеет вообще никакой цены. Тут дело принципа )
Спор это короче))) И для меня мой оппонент = школота) Но я повёлся)

Аааа... Понятно.

Чеширский:
Так... а если я ещё усложню задачу тем, что отправляемый пакет буду шифровать с ключом, который зависит от сессии, и возвращать обратно в зашифрованном виде, а сами функции шифрования раскидаю по разным js, которые запакую и обфусцирую? Это насколько задержит?
Мне надо сделать, чтобы этот сервис школоте было проще написать самим с нуля, чем трахаться над его разбором. Грубо гря, чтобы они оценивали трудозатраты на парсинг и прочее более чем на 100к?)

Можно нескромный вопрос? :)

Что это за бесценная информация такая?

Чеширский:
ок )

Думаю тогда 4 стенки сделать:

а) реферер
б) сессии
в) json с обфускацией
г) проверка на обращение к файлу (например картинка).

Это достаточно усложнит задачу школоте?

Жесть...

На Пентагон работаете? :)

Кстати, по поводу картинки... Это "заапргредженная версия" простой сессии которую я предлагал. И в принципе, если подобрать хороший алгоритм формирования капчи, то поломать её будет довольно трудоёмким делом. Если ещё и "хороший алгоритм" разбавить чем-то своим, чтобы его не смогли поломать готовые капча-парсеры, то вообще замечательно будет.

Santyago добавил 12.02.2010 в 19:01

bearman:
Чеширский, если школота знает что такое снифер, то это не 1 минута, а 2 минуты.

Снифер не поможет, если капчу придётся раскалывать.

Чеширский:
=( угу.
А по другому ведь никак )

И исходя из этой архитектуры максимум что можно сделать - это защиту через сессии.

"Защиту от дурака" реализовать и в большинстве случаев этого будет достаточно.

Потому что 100% защиту ты не сделаешь никогда. Поставив перед собой цель, из твоего сайта всё равно можно будет вытянуть что-угодно через Curl + листинг анонимных проксиков.

Лично я недавеча парсил выдачу одного из сервисов Гугли, который, конечно же, очень неплохо защищён от этого. И ничего... Чихнул пару раз от возмущения и всё отдал. )))

Поэтому всегда должен быть разумный компромисс между затратами на защиту и стоимостью защищаемых данных. Это - главное. 100% защитить можно только выдернув из сервака сетевой кабель.

Чеширский:

Тогда вопрос другой)))
Альтернатив нет?)

Нету. Мы все умрём.

bearman:
вас ничто не спасет, поверьте.

))))))))))) Пять!

Люди, читавшие RFC1945, взломают что-угодно )))))

bearman:
Santyago, я так понял, что 2.php не вызывается браузером напрямую, а через 1.пхп, если неправ, то очевидно что этот метод не сканает :)

Судя по этому

$.ajax({

type: "POST",
url: "2.php"+data,
dataType: "xml",
success: parseXml
});
});

Таки вызывается из браузера и задача как раз в том, чтобы запретить прямые вызовы без захода на страницу сайта. Если не прав - тоже поправьте... :)

bearman:
bearman добавил 12.02.2010 в 18:26минута от силы.

Гм... А кофе заварить?.. :D

Всего: 304