Ира - надо привязывать страницы товаров к одному из двух идентификаторов чтобы не менялись адреса:
- артикул товара
- хэш названия товара (этот вариант хуже - одну букву сменили и всё).
Вообще действительно вопрос к программеру.
Где фотоотчет с остатка вечера?
Зашел, увидел 2 страницы флуда. Понял почему forum.searchengines лежал в течение часа
Бегуну лучше было бы привлечь Одноклассники и VKontakte для продажи данных пользователей. Но ни тот ни другой такие данные ему скорее всего не продадут... ВКонтакте точно.
А пользователи Мамбы - это лишь небольшой пласт интернетчиков. Хорошо для начала таргетинга по соцдему, но как развивать эту инициативу дальше - совершенно непонятно.
вот пример типовой конфигурации nginx - классная статья, сам по ней настраивал, только не на 8080 порт а на другой внутренний ip-адрес. Единственное - она немного устарела, в том же Debian Etch уже nginx есть в репозитории.
В его конфигурации файлы которые напрямую отдаются nginx, выглядят следующим образом
# Static files location
location ~* ^.+\.(jpg|jpeg|gif|png|ico|css|zip|tgz|gz|rar|bz2|doc|xls|exe|pdf|ppt|txt|tar|wav|bmp|rtf|js)$ {
root /home/mysite/html;
}
Т.е. все картинки nginx попробует отдать сам из каталога, а если они генерируются апачем и php, то ничего не получится (htaccess nginx не обрабатывает и не планирует обрабатывать). Поэтому надо постараться над фильтром, чтобы нужные динамические картинки отдавались Апачем, а статика nginx
Narodd - работает классно и быстро. Есть специфическая вещь - некоторые скрипты пытаются отдавать динамические файлы как статику (например картинки на лету генерировать с подменой адреса в htaccess). Для них надо повозиться в настройках.
Вообще Nginx стоит поставить - при большой загрузке будет полезно.
Nginx ставят не для кэширования динамики в основном. А для:
- быстрой отдачи статики
- нормирования загрузки Apache и БД соответственно
- сохранения результатов работы Апач в промежуточном буфере чтобы потом отдавать пользователю (т.е. Апач сразу освобождается как только сгенерировал содержание а не когда он его отдал)
Сам сталкивался с этим 3 раза. Здесь есть несколько причин:
1) хостеры не будут поднимать панику из-за незначительной перегрузки от ваших сайтов в течение 1-2 месяцев. А вот если полгода вы превышаете ресурсы - то они подумают над тем что делать
2) ресурсы сервера всегда загружаются постепенно. На типовом сервере может лежать несколько сотен сайтов. И вот в какой-то момент оказывается что 99% сайтов используют вообще минимум ресурсов, а ваш использует их по полной...
3) объём жесткого диска (это про это 500 Мб?) вообще не показатель загрузки. Кстати когда вы увеличиваете тариф с Тарифа1 с 500 Мб до Тарифа2 с 4 Гб места то обычно увеличение ресурсов (процессора и оперативки) под вас не такое значительное :) У многих хостеров вообще разницы нет на shared-хостинге по ресурсам. Есть жесткое ограничение и увеличение объёма диска ничего не меняет...
4) у большинства проектов со временем растёт БД. И большие базы данных MySQL требуют больше ресурсов. Если вы наберёте базу данных 500 Мб MySQL, вас попросят перейти на VIP-хостинг или на VDS/Dedicated. Даже если посещаемость сайта - 1 человек в сутки (вы).
5) про поисковики не стоит забывать. У вас становится больше страниц, их больше индексируют и загрузка больше...
Вообще загрузка сервера - понятие довольно сложное. Я лично думал что уровень использования ресурсов определяется следующими параметрами на 95% - размер файлов общий; размер БД; использование процессора; использование оперативной памяти; использование канала. Но недавно у меня висел сайт на VDS у mchost.ru и все указанные параметры были в норме (менее 70% от потолка). Но сайты лежали из-за нарушения какого-то ограничения по количеству одновременно открываемых файлов. Вот тут и думай что делать.
Надо брать то с чем лучше знаком ваш программист. Если он всю жизнь интегрировал сайты с Битриксом - берите Битрикс
Данила - ты болеешь? :o