- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня ко мне обратился мой знакомый, которому я делал сайт, вот с такой просьбой:
Насколько это реально? Я что-то сам не догоняю.. На моё ИМХО что-то уж больно хитро..
garik77, для среднего веб-программиста - ничего сложного. Есть нюансы от деталей задачи, но в целом реализуемо.
Тогда подскажите в какую сторону копать? Или может где исходники есть?
Если знакомы с php, то алгоритм достаточно прост:
парсим контент
отбираем нужное
и отсылаем на почту
В других языках, насколько мне известно, на прямую на почтну нельзя отправлять.
Ну а на деле всё может быть и потруднее, нужно смотреть, что будет парсится.
Спасибо, уже понятнее..
Тогда подскажите в какую сторону копать? Или может где исходники есть?
Исходников таких точно нет. Это пишется исключительно под заказ.
Копать в сторону понимания реализации алгоритма.
1) Получение данных с удаленного адреса. в php к примеру (curl,file_get_contents)
2) Обработка полученных данных. (работа со строками, находим, извлекаем)
3) Хранение данных и обработка (работа со строками, MySql)
4) Отправить на мыло данные в обще не должно быть проблемой.
как-то так в общих чертах.
Если php для вас тёмный лес, посмотрите AutoIT под Windows. Может всё. Прост как Бейсик
Если php для вас тёмный лес, посмотрите AutoIT под Windows. Может всё. Прост как Бейсик
Спасибо, не совсем конечно, темный лес, но боюсь что все же моих познаний может не хватить.
Рекурсивная функция, которая тянет страницу со ссылками(определяя внутренние ссылки, конкретные ссылки, необходимые страницы, необходимые ссылки на страницы с объявлением и т.п.), пишет их в базу, помечая страницы, на которых уже был паук, чтобы не зациклиться. Не найдя "непосещенных" страниц - return.
Это максимально упрощенно для одного сайта с объявлениями. Не забываем про то, что можно многопоточно это сделать, сократив время парсинга. Не забываем про куки, редиректы и прочую борьбу с краулерами. Если нужно юзаем прокси.
Запасаемся терпением и ждем )
Уверен, будет полезным сей класс. Хотя есть и более быстрые экземпляры.
Удачи, друг! )