в txt засувай. Никто твои doc открывать не будет.
дополнительное поле + onsubmit() формы и боты пойдут лесом.
Во всяком случае на моих сайтах с добавлением такого кода прекратились паскудства.
php это не формат страниц. Это скрипт серверной стороны, который выдает тот же html.
Если речь все ж про форматы веб-страниц, то html, xhtml и вроде все.
Терзай поисковик на предмет доктайп и тебе улыбнецо щастье.
А эти гогеты, это ооо, или просто группа людей с отсутствующей ответственностью?
$modif=time()-@filemtime ("wather_new.html"); if ($modif<1000) { $bt ="<iframe src=\"wather_new.html\" width=\"180\" height=\"360\" vspace=\"0\" hspace=\"0\" scrolling=\"no\" frameborder=no></iframe>"; } $ch = curl_init('http://источиник'); curl_setopt($ch, CURLOPT_RETURNTRANSFER, true); curl_setopt($ch, CURLOPT_COOKIESESSION, true); curl_setopt($ch, CURLOPT_COOKIEJAR, dirname (__FILE__)."/cookie.txt"); curl_setopt($ch, CURLOPT_COOKIEFILE, dirname (__FILE__)."/cookie.txt"); $text = curl_exec($ch);
КОнечно же он будет ложить. И правильно делает, что ложит 😂
Сразу после " if ($modif<1000)"
делайте обновление wather_new.html. Можете делать просто touch(), можете в конец дописать пробел, как угодно.
Тогда ложить не будет.
А в этом коде, то конечно, треды позависають, а новые все равно будуть открываться.
1?
Даст новый файл без лишних данных, что ж еще.
Неужели не улавливаете отличия? Серьезно?😂
нет коннекта
Причины лимитов просты: скрипт будет работать на разных хостингах, виртуальных в т.ч., а там могут быть большие ограничения по памяти.
Это понятно.
Вопрос в том, каким именно способом это сделать.
Вижу три:
1.Записать все во временный файл, а старый удалить.
2.Перекинуть данные после ненужных поверх ненужных гоняя указатель туда-обратно и обрезать файл.
3. Открыть два указателя на одном файле и читать писать в цикле до еоф и потом обрезать.
как по мне третий самый оптимальный, только вопрос, как там будет с файл-шарингом на разных операционках, не будет ли sharingerror-a, например, в виндоусе.
Воно оно как. Ну тогда ифреймы конечно не помогут.
В твоем случае проще всего фиксировать время начала работы парсера, и, если в теч посленег8о скажем часа парсер уже работал, то останавливаться.
Время можно записывать хотя бы созданием пустого временного файла где-нить и потом считывать дату доступа к нему.
потому что грузят проц не все скрипты, а самые мощные. 😂
Может быть, виновен даже всего лиш один скрипт, который запускается раз в пять секунд пару десятков раз.