- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ДЫК всё же просто! Для этого достаточно написать парсер. ☝ (в этом деле подробнее объяснить тяжело). Если не можете сами - вот Вам хороший специалист в этом деле.
P.S. Не стОит благодарностей ;)
Спасибо за рекомендацию!
Конкретно интересует алгоритмы работы парсеров для данных видов движков и информация о принципах написания парсеров.
Конкретно интересует алгоритмы работы парсеров для данных видов движков и информация о принципах написания парсеров.
http://www.j369.ru/?p=30
http://www.j369.ru/?p=32
если 1-2 форума парсить то на php можно делать, если больше на perl-100% иначе будет долго
принцип парсера (бота для выкачивания):
1. есть коллекция форумов
2. есть зареганные аккаунты в них
3. бот аторизуется
4. бот выкачивает новые посты
5. дальше получается массивы текста , с которым лично я ХЗ что делать дальше
пункты 1-4 баков за 200 тебе реализуют думается мне
PilotGarry -спасибо за ссылки
принцип парсера (бота для выкачивания):
1. есть коллекция форумов
2. есть зареганные аккаунты в них
3. бот аторизуется
4. бот выкачивает новые посты
5. дальше получается массивы текста , с которым лично я ХЗ что делать дальше
То что с 1 по 4 это не парсинг - парсинг это как раз п.5 (с которым лично Вы Х3 что делать дальше).
Сcылка по теме (взята отсюда)
Что касается алгоритма, то он свой в каждом конкретном случае. Если в общих чертах, то:
Это процесс парсинга... но это не самое сложное в поставленной ТС задаче. Самое сложное это индексация (как не отпарсить многократно одну и ту же страницу и т.п.) и организация поиска по индексу (если не говорить о "тупом" ЛАЙКЕ, а делать всё правильно)
масса ньюансов, но не так уж сложно с п. 5:
для зарегистрированных обычно есть ссылка "показать все новые темы с последнего визита".
почти все форумы следуют структуре раздел-тема-пост и сохраняют уникальные ид (кое-кто даже предложил альтернативный интерфейс RSS для форумов, но распространения пока не получил)
для поиска есть полнотекстовый поиск mysql, который на начальном этапе проект будет удовлетворительным.
а дальше вам надоест, вы поймете что на ваши деньги выгодней купить квартиру и сдавать ее :)
для поиска есть полнотекстовый поиск mysql, который на начальном этапе проект будет удовлетворительным
Как вы думаете, долго ли подобный поиск сможет удовлетворять если речь пойдёт о индексации SE? 😂
Brand from Amber, это уже детали. яндекс и гугл друг-друга ведь не задосили до сих пор.
другое дело, что постановка вопроса вида "а может уже кто-то делал" показывает что инвестиций там нет.
netwind, Вы ещё скажите, что Яндекс сам себя не "задосил" - ПС-ы не индексируют выдачу друг-друга. Да и речь в моём случае шла об отношении объёма проиндексированной информации к "полнотекстовому поиску по mysql". ...ну да не суть - отклоняемся от темы.
это черный метод и к нему нежелательно прибегать ИМХО