- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
http://sjs-soft.ru/super-parser-kontenta
Однозначно рекомендую Content Downloader (сам пользуюсь):
1. Настраивается просто и под любой сайт, где нет защиты от прасинга
2. мегаадекватный автор (а значит и поддержка)
3. смешная цена - 800руб. (Кроме этого, возможно договориться с автором о скидке, если одновременно брать нескольким людям)
присоединяюсь. + экспорт в cms и статический сайт
Извиняюсь конечно, но универсальных парсеров не существует и быть не может, пока не придумают искусственный самообучающийся интеллект. А так такими парсерами Вы конечно сможете напарсить, но кол-во неадекватностей и мусора будет достаточное.
Извиняюсь конечно, но универсальных парсеров не существует и быть не может
для CMS - при стандартных тегах начала и конца контента - ещё как существуют...
Найдите BGet, либо закажите парсинг у тех, кто им занимается каждый день. Выйдет дешевле и качественнее. Все, что вам тут понапредлагали, написано людьми, далекими от ежедневных упражнений в сборе инфы для сео-нужд.
http://datarama.biz - там ни на один проект не ушло более сорока минут работы оператора (фоновое скачивание не считается работой оператора), плюс проекты перед выкладыванием преднамеренно упрощаются, а так можно сразу в 3NF базу гнать. На создание проекта парсинга всего Яндекс.Маркета (всех категорий и видов товаров) в полноценную базу, с отдельной табличкой на каждый вид продукции со своими полями (а можно было бы и все в одну таблицу) ушло 80 минут со всеми отладками и тестовыми прогонами. Вот такой вот есть парсер. Но я не продам, а вы не купите. Так что, имхо, либо заказывайте сбор инфы, либо доставайте BGet.
Если вдруг найдете что-то универсальное и дешевое - буду благодарен, если скинете ссылочку :)