- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
X-Parser не может нормально парсить выдачу яндекса)))
С помощью хпарсер лет 5-6 парсил рамблер (у которого выдача яндекса). Поскольку парсишь статьи, то ниче страшного, что какой-то урл будет немного не на той позиции как в оригинальной выдаче яндекса.
Последний раз парсил в мае или июне 2020, там вроде новая капча появилась, но думаю проблем быть не должно.
x-parser + capmonster = парсил без прокси и без расходов. Иногда бывало 200-300 капч за сутки, а иногда 20 тыс. Потому что:
парсил в 12-14 окон хпарсера, в каждом по 50 потоков. Выдача тоже 50 результатов. Итого 600-700 потоков (конечно нужен соответствующий проц и соединение напрямую, без роутера). По несколько статей на ключ. 10 гб статей в сутки.
Кроме этого, есть платные сервисы для парсинга xml яндекса и гугл. Они есть в хпарсер. Недавно так гугл парсил, всё ок.
X-parser + Xevil топовый набор, может многое, Яндекс капчта 100% разгадывание, не нужно платить сервисам
Если что-то парсить прямо сложное, datacol можно подключать в работу
Во как раз связка работает на серваке:
Дорвеи живы?
Живы только сейчас их так с ходу и не отличишь от нормальных сайтов, сделанных для людей. А суть-то та же. Дорвеи - это сайты, сгенерированные для получения траффика из поисковых систем. При этом сайты сейчас генеруются на лету, ссылки проставляются автоматом и так далее.
Возник вопрос парсинга сайтов.
Не позиции товаров а именно содержимое страниц. Как это сделать?
Ассортимент выбора настолько широк (от браузерных приложений до самостоятельных программ типа A-parser и Zennoposter), что отталкиваться надо от задачи.
Если просто спарсить отдельные поля, то хватить программы SC Frog и 15-минутного прослушивания ролика про использования Xpath.
Если с данными нужно выполнять какую-то логику (сравнения, калькуляции, работа с БД), то мой выбор - Zennoposter. Фактически это уже не просто программа, а полноценная среда для программирования необходимой автоматизации (не так давно об этом писал).
думаю проще будет заказать парсинг.
Зависит от задачи.
В общем и в среднем в парсинге конечно надо разбираться.
Живы только сейчас их так с ходу и не отличишь от нормальных сайтов, сделанных для людей. А суть-то та же. Дорвеи - это сайты, сгенерированные для получения траффика из поисковых систем. При этом сайты сейчас генеруются на лету, ссылки проставляются автоматом и так далее.
у меня лет 5 назад было около 150 статей, после попытки загрузить их разом домен влетел под какой-то фильтр яндекса, как подозрительный