- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет
Подскажите, как можно полегче массово скачать Веб-страницы по списку УРЛ ?
Teleport Pro в помощь
Так же контент даунлоадер ещё есть
Список в list.txt
И командой:
wget.exe -i list.txt -l1 -k -E -p --max-redirect=1 -np --user-agent="Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.2228.0 Safari/537.36"
Разнообразить топик что ли...
---------- Добавлено 30.10.2018 в 12:55 ----------
list.txt
Протестую "url_list.txt" логичнее, неизвестно еще какие "листы" придет в голову складировать в той же папке.
Teleport Pro в помощь
Рекомендую - хороший вариант.
Список в list.txt
И командой:
wget.exe -i list.txt -l1 -k -E -p --max-redirect=1 -np --user-agent="Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.2228.0 Safari/537.36"
Где должен list.txt лежать???
Команду в пуске запускать и куда страницы упадут?
---------- Добавлено 30.10.2018 в 14:26 ----------
$list = file('url_list.txt');
foreach($list as $k=>$url){
$t = file_get_contents($url);
file_put_contents($k.".html", $t);
}
?>
Тут типа надо сделать РНР файлик... залить и запустить его и странички упадут в ту папку где он будет лежать?
Спарсить curl-ом через прокси.
Разнообразить топик что ли...
И на сколько страниц хватит такого скрипта?
Как быстро сдохнет?
На днях нужно было спарсить ооочень много товаров с одного интернет-магазина.
Так, чтобы не перегружать, открывал каждую страничку отдельно раз в 5 секунд, разбрасывал данные по переменным и в удобоваримом виде в базу -> 3 дня ушло на запросы разв 3 секунды.
И на сколько страниц хватит такого скрипта?
Как быстро сдохнет?
Как php настроен...
Тут типа надо сделать РНР файлик... залить и запустить его и странички упадут в ту папку где он будет лежать?
Ну установить php, вы же про Teleport Pro не спрашивали ставить или нет, а тем более не спрашивали - куда в нем скопировать свой список. А уж тем более, на каком языке в нем писать. А тут столько вопросов....
Для такого скрипта урлы должны быть без .html на конце, иначе сохранятся файлы с .html.html на концах, но работать все равно будет. Можно еще дописать, чтобы урлы удалялись из списка по мере сохранения страниц и скрипт придется перезапускать несколько раз или поставить на крон.