- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Передо мной поставили задачу найти краулер, который мог бы делать примерно следующее:
Настраиваться на сайт, для каждого сайта должна быть настройка, что вот с такой стриницы нужно перейти на определённую ссылку, если выполнено некоторое условие (регулярное выражение), и иметь возможность складывать скаченные страницы в определённое место на диске.
Заранее спасибо за любую помощь.
я продаю, то что тебе нужно, стукни в личку
Настраиваться на сайт, для каждого сайта должна быть настройка, что вот с такой стриницы нужно перейти на определённую ссылку, если выполнено некоторое условие (регулярное выражение), и иметь возможность складывать скаченные страницы в определённое место на диске.
Ну как бы это умеет персональная новотека. Разве что скачанные страницы на ваш диск не складывает :)
2 minaton - простите, что? Я просто особо не влезал в эту тему, по этому не втеме )))
2 sun - начальство говорит, что они хотят бесплатный софт.
2 sun - начальство говорит, что они хотят бесплатный софт.
жжжжжж) пожжужжите им бесплатно. 😮
Gubber, Бесплатный краулер.
Когда рыжий песок под гусеницами краулера вдруг осел, Петр Алексеевич Новаго дал задний ход и крикнул Манделю: "соскакивай!"
Краулер задергался, разбрасывая тучи песка и пыли, и стал переворачиваться кормой кверху. (С)
Ну я это понимаю. Может тогда немного можно упростить задачу. Нужен некий краулер, который до некоторого уровня выкачивает инфу с сайта. Хотя первая задача - это было б хорошо.
Здравствуйте.
Передо мной поставили задачу найти краулер, который мог бы делать примерно следующее:
Настраиваться на сайт, для каждого сайта должна быть настройка, что вот с такой стриницы нужно перейти на определённую ссылку, если выполнено некоторое условие (регулярное выражение), и иметь возможность складывать скаченные страницы в определённое место на диске.
Заранее спасибо за любую помощь.
несколько операторов на перле :)
если сайты начнут обороняться от таких качалок, то надо будет добавить еще несколько операторов
но помочь ничем не могу, даеж ссылок на документацию по перлу не дам, т.к. неинтересно мне это уже
Gubber, я думал вам серьезную вещь...
телепорт в яндексе наберите..
простите, что? Я просто особо не влезал в эту тему, по этому не втеме )))
Можно сделать персональный поисковик на базе Новотеки. Вы сами назначаете список сайтов, время обхода, глубину индексирования, маски для документов и т.д. Можете пользоваться этим поисковиком сами, а можете выложить на свой сервер для всех.
Нужен некий краулер, который до некоторого уровня выкачивает инфу с сайта. Хотя первая задача - это было б хорошо.
perl
use LWP