Dram

Рейтинг
1114
Регистрация
28.06.2008
baas #:

Но mail.ru это геморой полный, фильтр пересылке почты у них совсем ни какой, срабатывает через раз или вовсе сегодня я отправляю, а завтра не буду.

Перенес все проекты на майл, настроил пересылку на gmail, все приходит.

Уже в самом gmail настроил отправку почты от имени каждого из сайтов и управляю всеми письмами всех сайтов с личного gmail

Единственное, чего не хватает на mail - галочки "удалить после пересылки", придется иногда заходить чистить ящики.

Я кеширую все средствами Nginx для неавторизованных. Для авторизованных (у меня их немного) ставлю куку и для них кеш не работает.
dzthd #:
А вы точно программист? Запросы которые вы показали не ваш сервер делает, а браузер клиента.

Естественно я понимаю что это не мой сервер делает, но инициализирует запросы рекламный код Яндекса, который стоит у меня. Вот и спрашиваю - могу ли я как-то повлиять на то, куда он делат запросы или нет?

webinfo #:
Запросы к базе данных?

Остановил мемкеш на сервере командой

service memcached stop
Получил ошибку 
Warning: session_start(): Failed to write session lock: CONNECTION FAILURE

Получается сайт кеширует в него сессии. Полез в php.ini нашел это

session.save_handler = memcached
session.save_path = "127.0.0.1:11211"

Вопрос закрыт.

multi_curl у меня тоже замечально работал на 1-10 записей. Когда пошли сотни и тысячи начались проблемы, зависания, пропуски.... лень было разбираться в проблеме.
Забавно, только создал пост и ответил а поддержка. Короче карта по умолчанию создаются ..... пустой без вообще ничего, без слоев. И нужно их добавлять, подробнее тут https://yandex.ru/dev/maps/jsapi/doc/3.0/dg/concepts/general.html#layers

Проверил на пхп 7.4

$search_word = 'dfhggdfhdfhfdghert';
$file = file_get_contents('/var/www/com/12.txt');
// Пример с использованием  strstr
$start_time_strstr = microtime(true);
$found_strstr = strstr($file, $search_word);
$end_time_strstr = microtime(true);

// Пример с использованием strpos
$start_time_strpos = microtime(true);
$found_strpos = strpos($file, $search_word);
$end_time_strpos = microtime(true);

// Пример с использованием preg_match
$start_time_preg_match = microtime(true);
$found_preg_match = preg_match('/' . $search_word . '/', $file);
$end_time_preg_match = microtime(true);

// Вывод результатов

echo "Скорость поиска по слову '".$search_word."'\n";
echo "strstr(): " . number_format(($end_time_strstr - $start_time_strstr), 10) . " ms\n";
echo "strpos(): " . number_format(($end_time_strpos - $start_time_strpos), 10) . " ms\n";
echo "preg_match(): " . number_format(($end_time_preg_match - $start_time_preg_match), 10) . " ms\n";

Ожидаемо -  strpos быстрее всего.

suffix #:

Просто в подавляющем большинстве случаев эта разница настолько мала, что особого смысла нет (хотя если сильно хочется, то можно конечно сделать).

Вы читаете мои мысли ))) ТОже пришел к этой мысли. Просто объединю их сожму.

ArbNet #:

Dram, знаешь как я сделал в своём фреймворке?

Разделил стили по небольшим файлам: основные подключаемые на всех страницах, стили для форм, стили  для текста, стили для выравнивания, стили для flex, grid и др. Когда нужны те или иные стили указываю в инструкции(типа шаблона) страницы, движок создаёт файл и import`ами. Если какие либо файлы уже загружались, то берутся из кэша браузера, другие быстро подгружаются так как маленькие.

Не вижу в вашем решении плюсов. Зачем дробить на несколько файлов, в итоге вместо одного коннекта на сервер - будет 5? В чем смысл? Да я понимаю, что файлы попадут в кеш браузера и далее будут браться от туда. Но если у меня 60.000 юзеров в день и кол-во просмотров на юзера все 1.6, а 95% новые юзеры, то мне этот кеш ничем не поможет и нужно сокращать именно коннекты для ускорения загрузки.

webinfo #:

Ну и нафига минимизатор? Чтобы усложнить себе работу?

Чем она усложнится - минимизировать он будет на лету и сжимать. Оригиналы никуда не денутся. Надо что-то изменить - изменил, очистил папку с кешем (куда будут складываться эти минимизированные скрипты) и все.

Всего: 6924