так хром пишет
а что мешает процедуру написать по выдеранию URL из заголовка ответа и если реферер есть, то рекурсивно идем по цепочке url из хидеров.
curl_getinfo($cur) при CURLOPT_FOLLOWLOCATION =>1
вернет array(последнюю_страницу_url,...)
если я правильно понял
urldecode() вроде бы заточен для конвертации %2F в человеческие символы
поверь мне, тут балбес на балбесе ) ! они тока издалека спецы )
:) иногда случается
не вник в суть проблемы просто
может так ?
switch (date('H')) { case 5: case 1: case 3: case 7: case 9: case 11: case 13: case 15: case 17: case 19: case 21: case 23: do_something(); break; default: break; }
в начале вашего шаблона
<? if(!is_super_admin ()){ include "zaglushka.html";die();} ?>
zaglushka.html лежит в папке шаблона. все кто не админ будут ее видеть, остальные будут видеть шаблон.
стукните 360699936
Рекурсивная функция, которая тянет страницу со ссылками(определяя внутренние ссылки, конкретные ссылки, необходимые страницы, необходимые ссылки на страницы с объявлением и т.п.), пишет их в базу, помечая страницы, на которых уже был паук, чтобы не зациклиться. Не найдя "непосещенных" страниц - return.
Это максимально упрощенно для одного сайта с объявлениями. Не забываем про то, что можно многопоточно это сделать, сократив время парсинга. Не забываем про куки, редиректы и прочую борьбу с краулерами. Если нужно юзаем прокси.
Запасаемся терпением и ждем )
Уверен, будет полезным сей класс. Хотя есть и более быстрые экземпляры.
Удачи, друг! )
вам поможет conditional css или css хакки конечно
попахивает от этого сайта. что именно не так? да все не так!