Проверьте наличие файла findonly.php в amecache/.
$site = 'http://сайт/login.php'; // страница авторизации $post = передаваемый пост-запрос $curl = curl_init($site); curl_setopt($curl, CURLOPT_HEADER, TRUE); curl_setopt($curl, CURLOPT_NOBODY, TRUE); curl_setopt($curl, CURLOPT_POST, TRUE); curl_setopt($curl, CURLOPT_POSTFIELDS, $post); curl_setopt($curl, CURLOPT_FOLLOWLOCATION, FALSE); $result = curl_exec($curl); curl_close($curl);
Как-то так.
Ну и про куки не забыть:
curl_setopt($curl, CURLOPT_COOKIESESSION, TRUE); curl_setopt ($curl, CURLOPT_COOKIEJAR, 'cook.txt'); curl_setopt ($curl, CURLOPT_COOKIEFILE, 'cook.txt');
Все нормально скачивает, смотрите настройки своего браузера.
У меня сайт на dle, посещаемость 10-12k, много комментируют. Самый медленный запрос, занимает 90% логов - "SELECT dle_comments.id,...". Думаю куда копать понятно.
Я думаю это очевидно.
Во избежании дублей title. Только с версии 9.3 они разные у всех страниц. Для более поздних версий надо хак ставить.
Сравните оригинальный jquery и тот что в комплекте. При совпадении имен функций удалите из второго их.
А зачем его добавлять, если он по умолчанию уже подключен.
Код страницы:
Соответственно приведенный в первом посте код отвечает за это:
<a href="Dengeki_Daisy/5/2"><img src="mangas/Dengeki Daisy/5/Dengeki_Daisy_02_05_001[KRS].png" alt="" width="750" height="1200" class="picture" /></a>
Также уже готовый вариант предзагрузки реализован вот тут ссылка. Но выдрать не получилось к сожалению. Пути к файлам картинок имеют такую структуру сайт/manga/mangas/Имя_манги/Глава_манги/Список_изображений(отсортированы по алфавиту)
ingmar добавил 08.09.2011 в 13:37
Уважаемые форумчане, ну очень нужна помощь, уже перелопатил кучу js скриптов с гугла, но не получается и все тут.
У сайта, на котором предзагрузка реализована в исходном коде за это отвечает след. код:
<td><div id="image_frame"><img id="loading_manga_page" src="/themes/common/loading.gif" alt="manga_page" /></div><script type="text/javascript"> //<![CDATA[ if (parent.location.hash) var page = parseInt(parent.location.hash.substring(1)); else var page = parseInt('1'); var page_preload = parseInt('5'); var pages = {"pg_base":"mangas\/First Love MALISA\/001 - Love is Being Brave\/","pages":["01.png","02.png","03.png","04.png","05.png","06.png","07.png","08.png","09.png","10.png","11.png","12.png","13.png","14.png","15.png","16.png","17.png","18.png","19.png","20.png","21.png","22.png","23.png","24.png","25.png","26.png","27.png","28.png","29.png","30.png","31.png","32.png","33.png","34.png","35.png","36.png","37.png","38.png","39.png","40.png","41.png","42.png","43.png","44.png","45.png","46.png","47.png","credits.png","recruit.png"]} var pg_base = pages.pg_base; var pg_urls = pages.pages; var img_url = []; var page_max = pg_urls.length; for (var i = 1; i <= page_max; i++) { img_url = "/" + pg_base + pg_urls[i-1]; } var next_chap = 'http://reader.imangascans.org/First_Love_MALISA/002'; var prev_chap = 'http://reader.imangascans.org/'; load(page); //]]> </script>
К слову исходники движка ридера у этого сайта и моего одни и те же.
Жалобу теоретически можно на что угодно получить. В моем случае 99 процентов, что абуз не будет. Это маразм думать, что японцы мониторят все сайты рунета, тем более закрытые под платным доступом.
ingmar добавил 08-07-2011 в 16:44
Если бы Вы обратили внимание, требуется 5 терабайт (у них столько выделяется), с возможность увеличения (наверное не бесплатно).
Также прошу заметить, что бюджет будет расти, если будет требоваться больше ресурсов. Не хочется платить за то, что не будет использоваться.
ingmar добавил 08-07-2011 в 17:07
Хостер найден, спасибо за помощь.