- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Коллеги, хочу представить вашему вниманию обновленную версию парсера поисковой выдачи Google - бесплатного модуля для CheckParams.
В новой версии добавлен графический интерфейс настройки программы, а так же возможность выбора дат парсинга.
Для успешной работы модуля необходимо выполнить следующие действия:
Парсер можно скачать здесь.
а зачем это вообще, никак не врублюсь...
Аддон вбивает в поиск Google заданный набор фраз (могут использоваться как простые ключевики, так и служебные конструкции вида "site:.com", "inurl:index.php" и т.д. ), и записывает ссылки из поисковой выдачи по этим фразам в файл.
Найденные ссылки могут быть использованы в различных областях как "белого", так и "черного" SEO :)
Примеры использования для "белого" SEO:
1. Массовый анализ конкурентов по ключевикам
2. Поиск вебмастеров для обмена ссылками
Софт отличный. Для понимающих дает о-о-очень много возможностей и упрощает жизнь, как в белом, так и в черном цео.
Вот только хотелось бы в следующей версии иметь возможность разбивать файл с результатами на части, желательно самому указывая размер, после которого идет разбиение.
По тупости своей не совсем понимаю:
- Почему именно два набора исходных слов?
- Как глубоко парсит?
По тупости своей не совсем понимаю:
- Почему именно два набора исходных слов?
- Как глубоко парсит?
- Чтобы можно было автоматически генерировать запросы вида: "site:.com" + куча ключевых слов.
- Пока парсит до 1000 результатов по одному запросу, если кто-нибудь расскажет как парсить более правильно, то можно реализовать.
Глубину поиска можно как-нибудь ограничить?
Глубину поиска можно как-нибудь ограничить?
Насколько я помню, нельзя. Но парсер с открытыми исходниками на JavaScript, при желании можно не только глубину ограничить. Если что-то непонятно - спрашивайте, я постараюсь ответить, в ближайшие несколько дней Subudayj будет отсутствовать :)
Решил попробовать ваш парсер. При старте выдает в логе сообщение:
Что оно такое, влияет ли на работу этот PLU ?
Решил попробовать ваш парсер. При старте выдает в логе сообщение:
Что оно такое, влияет ли на работу этот PLU ?
Добрый день.
Прокси нужно настроить, иначе парсинга не получится.
нашел такую проблему у вас на форуме... Поставил 7 потоков и 108 прокси отчеканных, но из паблика. Результат тот же ( как быть ?
upd: хотя, нет - остановил. В файле результатов выдало порядка 300 урлов - уже что-то... будем ковыряться)
upd2: хотя, все равно непонятка.. вбил в софтине урл поиска с параметрами, но, резлутаты полученные в браузере и в выдаче программы разные.. К примеру - урл из выдачи в браузере не находит в списке результатов парсинга софтом...