- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Сервер лежит...
Сервер лежит аггрессовский, парсить не будет. Огромный минус этого парсера.
мде. а я думал что парсер сам парсит... а тут вона как, сторонний сервак.
Парсер то сам парсит, без авторизации на сервере не работает просто.
типа мы на коротком поводке ;).
В файле описаны все возможности, если надо что то еще пишите!
Да много чего нужно... Развивайте проект, я от этого парсера просто тащусь, нашел ему кучу применений.
Вот такой вопрос: можно ли выкусывать информацию из разных мест страницы?
То есть сейчас я, например, собираю с сайта ссылки, беру то, что между тегами <a>
<a href="{TEXT}"
а хотелось бы еще о описание выдранной ссылки брать. Описание находится вообще в другом месте html-кода. То-есть нужно еще и что-то типа <p>"{DESCRIPTION}"</p>
Как это осуществить?
Пока никак, подумаю как это можно реализовать.
Пока никак, подумаю как это можно реализовать.
было бы великолепно
а можно ли в текущей версии парсера рядом с каждым результатом выводить запрос, по которому был получен этот результат?
Пока что нет.
подскажите, плиз, как можно выпарсить все страницы одного сайта проиндексированных гуглом?
пробовал в topdomains.txt оставить одну строку вида +site:site.com - толку 0