User5

Рейтинг
24
Регистрация
03.06.2010

Цикл я встроил чтоб убедится что файл с адресами сайтов загружается корректно. В конечном итоге я его уберу. Вся задумка в том чтоб скрипт загружал сайт из списка, брал там адрес картинки по id и сохранял его в другой документ. Как видно скрипт я только начал писать, и столкнулся с проблемой что сайты не хотят открываться, причем, только тогда когда используешь site_list_arr[любое число], если вбить значение вручную то все норм.

T.R.O.N:
а на java Вы и не пытались
не возможно

Чтож, надежда что есть все таки способ решить эту проблему при помощи JavaScript не оправдалась... Придется идти более сложным путем :)

alexandr_nv:
Проверил. У меня так получилось:
document.getElementById('iframeElementId').src - если известен ID
или
document.getElementsByTagName('iframe')[0].src

Работает, спасибо за помощь :) Но к сожалению все равно скрипт отказывается работать когда во фрейме сменилась страница, то есть он продолжает выводить прежний url, но тут я думаю уже при помощи java ничего не поделать...

alexandr_nv:
document.frames[0].location ?

Использую команду frame1.location, все работает нормально, пока во фрейме загружена страница с локального домена, но если во фрейм загрузить страницу с другого домена то все... ничего не работает...

Ёхан Палыч:
Вот достаточно навороченный граббер:
<? 

echo file_get_contents("http://yandex.ru/");
?>

То что надо, все остальное можно будет сделать при помощи javascript. Спасибо за помощь.

awfirst:
Curl и все с етим связанное читай

Попробую, спасибо за помощь.

Ну собственно да, простой граббер который будет полностью копировать содержимого определенной странички каждые, скажем 5 минут, или чаще.

Скрипт выполняет такую функцию: получает данные с сайта раз в 5 минут, обрабатывает нужным образом и добавляет их на HTML страницу, каждые 5 минут закачивать сайт будет как то.... неудобно :)

1 23
Всего: 28