- Поисковые системы
 - Практика оптимизации
 - Трафик для сайтов
 - Монетизация сайтов
 - Сайтостроение
 - Социальный Маркетинг
 - Общение профессионалов
 - Биржа и продажа
- Финансовые объявления
 - Работа на постоянной основе
 - Сайты - покупка, продажа
 - Соцсети: страницы, группы, приложения
 - Сайты без доменов
 - Трафик, тизерная и баннерная реклама
 - Продажа, оценка, регистрация доменов
 - Ссылки - обмен, покупка, продажа
 - Программы и скрипты
 - Размещение статей
 - Инфопродукты
 - Прочие цифровые товары
 
 - Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
 - Ведение рекламных кампаний
 - Услуги в области SMM
 - Программирование
 - Администрирование серверов и сайтов
 - Прокси, ВПН, анонимайзеры, IP
 - Платное обучение, вебинары
 - Регистрация в каталогах
 - Копирайтинг, переводы
 - Дизайн
 - Usability: консультации и аудит
 - Изготовление сайтов
 - Наполнение сайтов
 - Прочие услуги
 
 - Не про работу
 
        Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
          Для интернет-магазина инженерных систем
        
        
            Мария Лосева
          
            
          
        
      Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
                
            
        
Заметил что сайт как-то медленно работает, хотя аналоги на этом движке работают на порядок быстрее. Начал разбираться и заметил: с подключенным кодом вывода ссылок SAPE скорость генерации страниц падает с 700/сек до 30/сек.
Посмотрел код - действительно
Файлик links.db считывается каждый раз при запросе страницы, а он не маленький целый 1МБ. (конечно иногда он и 20-50 кб, но у меня 1 МБ)
Ну и теперь 2 вопроса:
1. Как считаете что больше тратит времени - считывание этого файла или поиск в нем?
2. Кто нить пробовал перевести сапу на работы с MySQL? Ну или каким другим способом поднять быстродействие саповского кода?
PS.
Может для 1го сайта это не больая нагрузка, но когда таких сайтов пара десятков и на все приходят роботы - становится грусновато.
1. Как считаете что больше тратит времени - считывание этого файла или поиск в нем?
2. Кто нить пробовал перевести сапу на работы с MySQL? Ну или каким другим способом поднять быстродействие саповского кода?
1. засечь время на чтение и на поиск, результаты сохранить, например, в файл.. Код Sape - тот же самый php
2. если VPS свой, можно links.db считывать из памяти (если использовать tmpfs - вообще код изменять не потребуется.. или memcache).. Как вариант - можно кэшировать результат выполнения кода SAPE отдельно для каждой страницы (в отдельный маленький файл.. или в память.. или в базу)
Сапа паразит рунета. Сколько сайтов реально медленее работает из-за него. А когда диспенсеры падают(бывает редко), то вообще жесть- некоторые сайт долго думают из-за таймаута диспенсеров. Хотя и бабло конечно приностит, но всё же факт есть факт. :)
Сапа паразит рунета.
ОЛОЛОЛО! Сам паразит.
ОЛОЛОЛО! Сам паразит.
Юмора не понимаешь чтоли?😂
ЗЫ: сори за офтоп.
links.db в 1mB - это примерно 6000 ссылок. Можно и сервер помощней взять с парой десятков таких сайтов, не убудет
1. засечь время на чтение и на поиск, результаты сохранить, например, в файл.. Код Sape - тот же самый php
выяснил - считывается мгновенно, а вот поиск идет 0.015 сек. при суммарной генерации страницы за 0.019 сек это адски долго.
(хотя понимаю что доставка этой страницы посетителю идет 0.2-2 сек, но все таки хочется разгрузить впс.)
links.db в 1mB - это примерно 6000 ссылок. Можно и сервер помощней взять с парой десятков таких сайтов, не убудет
Сервер эт слишком быстро и просто :) куда остальное свободное время девать? (да и чую сильно не поможет т.к. нагружается проц)
2. если VPS свой, можно links.db считывать из памяти (если использовать tmpfs - вообще код изменять не потребуется.. или memcache).. Как вариант - можно кэшировать результат выполнения кода SAPE отдельно для каждой страницы (в отдельный маленький файл.. или в память.. или в базу)
Кэширование поиска по файлу как-то не очень красиво ), а вот в БД этот файл загнать - вроде самое то.