- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, возникла потребность скопировать инфу с одного сайта, но вся фишка в том что она выводится по поиску внутри сайта и выводятся по 10 объектов на страницу, все бы ничего но если больше 1000 объектов то это куча страниц которые нужно открыть вручную, может есть какие-нибудь проги, которые могут скопировать все это в автоматическом режиме? подскажите плз, как быть ?
Рекомендую использовать консольный WGET, портированный под win32: http://users.ugent.be/~bpuype/wget/ Хорош в частности тем, что есть и на многих хостингах.
Рекомендую использовать консольный WGET, портированный под win32: http://users.ugent.be/~bpuype/wget/ Хорош в частности тем, что есть и на многих хостингах.
эм.... я никогда этим не занимался, так что мне попроще надо, есть какие-нибудь способы другие? потому что мне "консольный WGET, портированный под win32" вообще ни о чем не говорит, а только на мысли наводит что все очень сложно...
поиск по словам "download manager"
для более конкретного вопроса приведу пример
вот ссылка, пример 1868 команий, 94 страницы, как-бы мне все это скопировать?? при условии что мне еще несколько городов нужно аналогично сделать, т.е ручной работы очень много будет
все еще актуально, кто что может посоветовать?
А вы у владельца сайта попросите - может он поможет 😂
А что тут советовать? Вам же уже сказали, в сообщении #2, какой способ будет самым правильным. Но Вы решили поискать способ еще проще, чем самый простой :). Действительно, проще только просить владельца, чтобы он прислал Вам информацию по электронной почте.
Я являюсь владельцем домена ... Давайте встретимся, я Вам передам на диске всю нашу уникальную информацию с сайта (ну надоело что она уникальная, пусть ещё у кого-нибудь появивится). :)
парсер закажите
А что тут советовать? Вам же уже сказали, в сообщении #2, какой способ будет самым правильным. Но Вы решили поискать способ еще проще, чем самый простой :). Действительно, проще только просить владельца, чтобы он прислал Вам информацию по электронной почте.
как я уже написал, что ничего не понял из того что вы мне посоветовали, я себе представлял прогу, которая как-нибудь сканирует сайт, отмечает у себя критерии, а потом по ним искать сможет. тут ведь проблема в том что сайт делает это все на много страниц, а надо одним списком....
2 stroydomen
уникальности в информации тут не вижу, так как это информация из открытых источников