- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Можно сделать. КУРЛ, сокеты - в гугл! Ну лучше для начала с сокетами попробуйте, чтобы понять как оно работает, а потом уже курл можно.
КУРЛ это вообще библиотека, которая использует сокеты, если не ошибаюсь.
Как вариант, wget тянет страницу (кстати, умеет авторизироваться), ну а далее открываете файл как ресурс.
А ещё программы, не требующие веб интерфейса, лучше запускать напрямую в шелле. Скорость вырастет и сервер не будет напрягаться.
У меня вопрос: чего он так долго парсит? Можно как-нибудь увеличить скорость работы парсера? Я примерно правильно всё сделал или есть способы парсинга получше?
Настоятельно рекомендую посмотреть в сторону SimpleHTMLDom (simplehtmldom.sourceforge.net), ибо сам раньше допускал такую ошибку - парсил html-документы регулярками.
В multicurl указываю количество потоков равное количеству ссылок на странице. Получается самый оптимальный вариант парсинга по скорости.
А если на странице более X00 ссылок, не сдохнет CURL-то?
Настоятельно рекомендую посмотреть в сторону SimpleHTMLDom
DOMXPath уже отменили?
DOMXPath уже отменили?
Здесь дело вкуса. DOMXPath работает с XPath-синтаксисом, simpleHtmlDom - с нативным css-синтаксисом. Кому что удобнее.
Если есть сравнительный тест в пользу первого - то возьму свои слова обратно и буду продвигать в массы его.
я тут 5-ый день php изучаю)))
заинтересовала задачка, но так как кода Alkoshenko совсем не понял, то решил все писать по-своему)
работает тоже долго, наверно минут 3-5, вот что получилось.
еще регулярки учил весь день
в теме что-то говорилось о curl, надо будет поглядеть как там дела обстоят.
не понимаю почему появляются какие-то звездочки.
:)
Да пусть лучше скрипт подтормаживает немного чем схватить бан по айпи за ДДОС :)
furnaslives, а мне твой не очень понятен )))
но, главное чтобы работало ;)
Я вчера работу с почтой изучал, тоже прикольная вещь, сделал себе формочку "обратная связь" :)
потом у друга взял мыло и через цикл заспамил друга почту)) только скорость не очень была, всего за 300 сек где-то 44письма приходит :( я думал ему 100500 писем придёт)
...100500 писем придёт...
Эт с чего Вы взяли товарищ?:)
Да и к тому же такими темпами Ваш почтовый сервер может попасть в бан-лист(черный список или как-то еще) к серверу получателю.