- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Милованов Ю.С, JS не предоставит доступа у этому фрейму. HTTPRequest тоже - /ru/forum/comment/3673428 поэтому ...
siv1987, +1 никак.
Я тоже думал, что это невозможно, ибо тогда бы все использовали юзеров в качестве прокси, ну или еще че похуже:)
Но думаю, раз ТС о таком написал, то видимо где-то видел подобное.
Персонал контакта?))
Я видел сайт, где это реализовано, но повторить не могу.
Думаю, что там реализовано что-то такого плана, и не более:
http://vk.com/pages.php?o=-1&p=getProfiles
в JS не силен.
Попробуйте во фрейме(стайл: нонэ) подгрузить сайт и через JS получить доступ к контенту.
Еще раз говорю: JS - не мой профиль, это просто предположение.
Этот вариант я тоже рассматривал, но, как и Вы, я также не силен в JS, а гуглением ничего толком не нашел, поэтому и прошу в указать конкретный код.
---------- Добавлено 10.02.2013 в 14:29 ----------
Думаю, что там реализовано что-то такого плана, и не более:
http://vk.com/pages.php?o=-1&p=getProfiles
Да, как то можно реализовать запрос через json, а конкретней через $.ajax или $.getJSON на jQuery, но как?..
BeliyVV, человек, я не пойму - ты стебёшься или, правда, настолько глуп, раз упорно не хочешь видеть то, что тебе отвечают люди, которые поболее тебя "сильны в JS", но продолжаешь хвататься за "соломенки" от дилетантов?
Сайт в студию.
Если это было бы так просто, этой темы как минимум бы не было /ru/forum/650489
Вообщем да, именно это мне и нужно - пользовательская прямая ссылка на видеоконтент, и не более того. Для каждого IP она своя. И именно IP адрес только играет роль, все остальные заголовки по барабану, в т.ч. рефереры, домен-запросчик, юзер-агент... Играет роль только IP.
---------- Добавлено 10.02.2013 в 14:33 ----------
BeliyVV, человек, я не пойму - ты стебёшься или настолько глуп что упорно не хочешь видеть то, что тебе отвечают люди которые поболее тебя "сильны в JS"?
Ну раз я не стебусь, значит настолько глуп. Прошу помощи в решении вопроса, если это возможно.
---------- Добавлено 10.02.2013 в 14:40 ----------
А еще вопрос - можно ли как то загружать файл на 300 Мб методом типа file_get_contents на php пакетно, т.е. частями к примеру по 1 Мб по мере чтения загруженной части? Может сформулировал вопрос не совсем корректно, но смысл в том что файл вопроизводился в моем плеере по мере закачки видео на сервер. Сейчас если сделать запрос к файлу, то он снала полностью скачивается в оперативку (а это 300 Мб), а потом уже вопроизводится. Это существенно пригружает сервер. Можно ли как то пакетно его загружать и отдавать плееру?
cURL
и file_get_contents, кстати, тоже по идее должен какими-то обрывками качать файл, не будет же он весь целиком закачивать его в память. Тут была подобная тема обсуждения /ru/forum/741694
cURL
и file_get_contents, кстати, тоже по идее должен какими-то обрывками качать файл, не будет же он весь целиком закачивать его в память. Тут была подобная тема обсуждения /ru/forum/741694
Почему? Будет, если выставить время на исполнения скрипта в неограниченое он спокойно качает в ОЗУ и воспроизводит, тем самым укладывая в даун слабый сервак)). cURL и file_get_contents работают на сервере, и понятно что ссылка только для IP-сервера получается
Почему? Будет, если выставить время на исполнения скрипта в неограниченое он спокойно качает в ОЗУ и воспроизводит, тем самым укладывая в даун слабый сервак)).
Что мешает не сохранять результат в память, а отдавать его непосредственно пользователю, или сохранять на диске если его объем это позволяет? Хотя ваш сервер в даун в любом случае уйдет если пользователей будет более менее приличное количество.
если пользователей будет более менее приличное количество.
вот именно, это и останавливает. Подскажите, а функция copy() копирует напрямую на диск, или через оперативную память?