- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Будет ли работать на друпале каталог организаций (5- 10 млн страниц) - на странице тел, адрес, урл сайта, карта и отзывы. Посещаемость до 30 тыс чел в сутки.
Хочу разместить все города на основном домене.. Или лучше разбить на поддомены (по городам)?
тут скорей от кеширования зависит, правильно настроить и норм все будет))
Будет ли работать на друпале каталог организаций (5- 10 млн страниц) - на странице тел, адрес, урл сайта, карта и отзывы. Посещаемость до 30 тыс чел в сутки.
Хочу разместить все города на основном домене.. Или лучше разбить на поддомены (по городам)?
не знаю как в друпала с пхп7, но если возможно - сразу туда перевести ( и мускул желательно 5,6+)
дальше идем в кеширвоание и смотри, что можно и как закешировать, в идеале подключить не только кеш файлами и мускулом но что-то с nosql взять.
И все будет работать шустро.
Перевести все на поддомены - хоть немного геморно, но оно того стоит.
тут скорей от кеширования зависит, правильно настроить и норм все будет))
Не поможет, 100+ страниц с кэшем еле ворочается, а тут 5кк
Тут мне кажется больше от базы данных будет зависеть. А именно поиск в ней, что и где показать.
Если поиск будет элементарным, то думаю особых проблем не должно быть. Кэшировать, всё подряд не нужно, нужно кэширивать то что чаше все используется. Грубо прикинув, на 30 000 может быть 5000 самых чаще обращаемых страниц, их контент и кэшировать. Вообще в принципе можно всё протестить за день, 30 000 уников с большой вероятностью, не создаст большое количество одновременных подключений, поэтому можно сгенерить базу и кинуть ей в секунду 100 запросов, ну и посмотреть по логам что да как будет.
Тут мне кажется больше от базы данных будет зависеть. А именно поиск в ней, что и где показать.
Если поиск будет элементарным, то думаю особых проблем не должно быть. Кэшировать, всё подряд не нужно, нужно кэширивать то что чаше все используется. Грубо прикинув, на 30 000 может быть 5000 самых чаще обращаемых страниц, их контент и кэшировать. Вообще в принципе можно всё протестить за день, 30 000 уников с большой вероятностью, не создаст большое количество одновременных подключений, поэтому можно сгенерить базу и кинуть ей в секунду 100 запросов, ну и посмотреть по логам что да как будет.
Проблем не будет, если будет выборка записей по id. Но будут большие проблемы с выборкой по LIMIT OFFSET, если OFFSET слишком большой, но тут поможет правильная оптимизация запроса. База не самое узкое место, узкое место сам говнодрупал. Я бы даже с ампутированным мозгом не выбрал друпал для целей ТС.
Для каталога - лучше не столь универсальную CMS
Простой магазин - оптимальнее.
те же сущность и выбор по параметрам
Проблем не будет, если будет выборка записей по id. Но будут большие проблемы с выборкой по LIMIT OFFSET, если OFFSET слишком большой, но тут поможет правильная оптимизация запроса. База не самое узкое место, узкое место сам говнодрупал. Я бы даже с ампутированным мозгом не выбрал друпал для целей ТС.
С друпалом пару раз сталкивался, особо в код не лазил. Вы правы, запросы всегда можно оптимизировать, можно индексами ускорить, а можно вообще sphinx прикрутить. Вообще в идеале для такого формата данных, лучше самопис дабы не таскать с собой груз универсальных решений, но тут уже от предпочтений ТС всё зависит. Нагрузку на базу можно перенести в поисковые движки, к примеру sphinx или к примеру elasticsearch, его можно вообще как базу (в формате справочника, навряд ли надо будет что то постоянно писать в базу) использовать, скорость поиска у него на высоте, плюс сразу хороший плюс проекту, без лишний телодвижений сделать неплохой поиск по справочнику.
Вообще формат php и mysql в нынешних реалиях не всегда оправдан, можно использовать другие более подходящие под проект инструменты, хотя есть мнение что разрабов на php больше, это бесспорно их больше, но там где количество, жесть как страдает качество)
Для каталога - лучше не столь универсальную CMS
Простой магазин - оптимальнее.
те же сущность и выбор по параметрам
Не понял. Магазинную ЦМС для каталога организаций? Покажите, плиз, пример, где такое используется.
alexey_levkov, в общем, работать будет. Если кэширование будете использовать, то будет работать быстро. Учитывая, что нодов будет много, то на сервере памяти понадобится немало, чтобы в кэше держать много чего.
---------- Добавлено 09.05.2016 в 20:49 ----------
В общем, примерно так:
То, что я описал работает нормально на сайте с 700к просмотров в сутки (нодов не так много - 30к). Вы, правда, указали количество посетителей и не указали количество просмотров. Вам нужно обратить внимание только на последний пункт, так как всё остальное будет работать нормально.
Не понял. Магазинную ЦМС для каталога организаций? Покажите, плиз, пример, где такое используется.
Я использую постоянно модуль магазина в проектах и эту логику для построения чего-то схожего.
Мыслите сущностями, а не бизнесом.
Какая разница это свитер и характеристики, или фирма с характеристками?
Поиск уже настроение и удобен в магазинном модуле/cms
Только простой берите, без аналитики.