forest25

forest25
Рейтинг
67
Регистрация
12.09.2009
Должность
Colary

Зайдите в админку и гляньте генерируемые пути прописанные в настройках инфоблока, также посмотрите наличие правильных путей в urlrewrite.php

Если не получится можете написать мне в личку, гляну за так =)

Если у заказчика есть средства и время на то чтобы специально под него написали кастомное решение то почему бы и нет. Но сложность в том что во первых никто не гарантирует что в самописе не будет багов (а они там обязательно будут) и код полностью зависит от одного разработчика/группы разработчиков.

В случае если пути заказчика и разрабов разойдутся то найти спецов для доработки самописа будет несомненно сложнее и дороже.

Понятное дело что небольшие веб-приложения (простенькие сервисы, парсеры и т.д.) намного проще создать на фреймворках нежели перепиливать какую-либо сущетсвующую CMS, но когда речь идет о типовом интернет-магазине, типовом блоге, etc с минимальными доработками то быстрее и дешевле будет сделать это на одной из существующих CMS. Тем более что как и говорилось выше каким бы вы не были крутым спецом это не превысит суммарный опыт разработчиков с популярной CMS с большим коммюнити в которой быстро фиксятся баги и она постоянно разрабатывается и улучшается специалистами по всему миру (даже когда вы спите).

Дабы поддержать тему - не так давно начал делать приложения на Yii, очень понравилось. До drush пока руки не дошли, тем более что на друпале было сделано пока только два клиентских проекта. Дальше думаю либо ждать YII 2, либо переходить на Python/Django, RoR

БД

Одно дело когда на странице с десяток простеньких запросов. Запросы пролетают за тысячные доли секунды.

И совсем другое когда на странице сотня другая сложных запросов с многочисленными join'ами. (любой более-менее сложный проект на Битрикс или на том же Drupal). В данном случае спасает только кэширование.

Файлы.

Чтобы построить более-менее сложную структуру проекта потребуется возможно с десяток файлов с довольно сложной структурой (XML или JSON), а для организации сложной выборки придется написать собственные велосипеды.

Но возможно да, работать оно будет быстрее. Зато рулить большими объемами данных будет намного сложнее.

ИМХО спор ни о чем.

Для мелких сайтов можно и CMS на файлах, для средних SQL-базы и кэширование, для огромных проектов распределенные NOSQL-базы, разделение данных проекта на более мелкие сущности и работа с ними индивидуально (к примеру как сделано на авито где поисковый индекс собирается sphinx'ом с магическими костылями).

Скорость загрузки страниц также можно замерить на tools.pingdom.com

Проверить работу сервера под нагрузкой тут - loadimpact.com

Также можно запросить бесплатный отчет от webo.in

CSS - минифицировать и отдавать gzip

JS - минифицировать и отдавать gzip, если это распространенный фреймфорк типа jquery то отдавать его стоит с CDN

Выпилить Apache и делать связку nginx + php-fpm + APC (либо Xcache). Работа php и mysql через сокеты.

Для профилирования скриптов можно подключить xhprof, для mysql включить slow_query_log и на основе полученных данных оптимизировать.

Это из универсального. Остальное - уже магия для конкретного движка сайта.

Обычно только первая выгрузка (полная) продолжается очень долго. Все последующие выгрузки нужно сделать только частичные (загрузка изменений).

Попробуйты экспортировать из 1с данные в формате CommerceML 2 и импортнуть вот этим скриптом: http://dev.1c-bitrix.ru/community/webdev/user/16899/blog/1654/

Там можно настраивать таймер работы скрипта, выставляйте 30 сек и ждите. Все постепенно импортнется.

Видимо что-то типа http://window.edu.ru/library/pdf2txt/843/19843/3056

guru85:
Подскажите пожалуйста, почему. Сайт на друпале, как только онлайн пользователей становиться более 200, то сайт практически не открывается, очень долго грузятся страницы, сайт на сервере выделенном, вот с такими параметрами Intel Xeon 2.4 GHz VT, 8 GBRAM, 2x73 GB SAS 15k Raid1 , 100 Mbit Unmetered Traffic, когда посетителей не много все летает без проблем.

Если большая часть пользователей анонимы то можно попробовать применить модуль Boost Для кэширования контента + можно накатить в качестве основы Pressflow, должно бегать повеселее.

По висящему сайта - если есть возможность включите в myslq slow_query_log или попросите хостера это сделать. Так можно будет найти и отсеять сложные медленные запросы + сопоставив по времени можно глянуть какие запросы в этот момент шли на страницы сайта.

Также думаю будет правильно вручную аппрувить новых пользователе.

А ведь точно про DNS то никто и не подумал ведь! Субдоменам нужно добавить A-запись указывающую на ip сервера.

Теперь касательно безопасности.

Сборки типа denwer и open-server вообще предназначены только для быстрого развертывания среды для разработки веб-приложений. В качестве продакшн сервера их использование крайне не рекомендуется. Также вполне возможно что вы в Windows работаете под учеткой админа и веб-сервер запускаете тоже под ним. Тут уже нужно грамотное разграничение прав. Если нужна именно винда на домашнем компе то могу посоветовать серверные дистрибутивы (win 2003 server например).

Ddos домашней машины - это сильно! =) Если ддосят вполне успешно выделенные сервера с каналами по 100мбит и ресурсами отданными целиком под веб-приложения то какой разговор о домашнем компе с хилым каналом?

Ayavryk:
У вас в подписи стоит адрес вашего блога. Не удержался и залез
Главная страница тянет 52 запроса 236.9 KB из них 4 CSS, 9 JS,
Там еще похоже какой-то шрифт подгружается.
И конечно это написана на WP, а не а ассемблере, как я предполагал.
ЗЫ
Только не подумайте, что я вас осуждаю за незаботу о пользователе или некошерный WP

Так и знал что участие в этой теме сведется к тому что докопаются до моей подписи )

Если вы обратите внимание то там практически нет посещалки и собственно самих постов ибо планировал сделать этот блог основным - занялся им, а потом забил =) Кстати изначально страничка весила 600 кб, поэтому пришлось немного повыпиливать. Для 15 посетителей в день думаю и wp с такой оптимизацией подойдет. В дальнейшем если руки дойдут возможно перепишу его на YII.

Основной блог на maxsite cms и там 39 запросов, хотя это также много ибо есть еще неплохой запас по оптимизации.

Про асм я вообще ни слова не говорил =) Тем более в сообщениях выше про себя я не говорил что какой мол оптимизатор молодец, стараюсь по мере возможности выпиливать лишнее и сжимать объемное, если и не получается делать все хорошо, то нужно хотя бы к этому стремиться не так ли? )

Всего: 372