- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ТС спасибо за прогу, очень удобная и нужная вещь
Предпочёл бы платную, но с возможностями, описанными во втором посте
Обновил программу (скачать можно по старой ссылке) - устранены некоторые баги, например, зависание проги при очень долгом ожидании подключения к серверу (бывает такое, когда прога пытается грузить картинку с какого-нибудь китайского сервера, который отдает данные по 2 байта в час :) Также устранена проблема, при которой некоторые картинки грузятся очень долго (часто из-за глюков на сервере).
P.S. разъясню некоторые вопросы - например почему программа показывает, что по запросу найдено 250 картинок, а после загрузки и сохранения в папке оказывается количество немного меньшее: это по той причине, что сервер с картинкой был недоступен (да, и так бывает :) или на сервере стоит антилич, который не позволяет выцепить картинку с сайта по прямой ссылке.
По поводу добавления возможностей - пока если честно влом, т.к. все равно обычно требуется какая-либо обработка напаресенных картинок в том же ACDSEE или фотошопе. Для чего парить мозги и встраивать в программу функции, которые прекрасно выполняет другая программа? Т.е. для начала надо напарсить все, что есть, а потом уже в граф. редакторе можно делать любые преобразования, в т.ч. пакетно. Но, если как-нибудь совсем будет нечем заняться, то возможно прикручу выбор размера, т.к. там всего лишь меняется формат URL. Пока лень разбираться. В настоящее время гораздо более интересным занятием для меня является совершенствование программ для массового постинга.
Идея не плохая, мне понравилась. есть смысл конечно в апгрейде (причём существенном), но думаю со временем будет ещё лучше, если конечно автор заинтересован в пользе софта для юзеров. Ну, поскольку она бесплатна, то думаю, что заинтересован )) +
Сделал новую версию программы. Теперь в программу добавлена возможность выбора режима поиска ("Живой поиск Google" и "Обычный поиск"). Если вы используете быстрый интернет, то используйте настройки программы по умолчанию, т.к. Google автоматом дает вам поисковую выдачу в "умном режиме" (это когда на странице сплошь до самого низу идет около 200 картинок, а внизу присутствует кнопка "Еще результаты"). Если же скорость вашего интернета невелика, то Google принудительно делает вам выдачу в "Стандартном режиме" (Это когда на странице по 10 результатов, а внизу выбор страниц результатов поиска). Извлечение адресов картинок в этих режимах происходит по-разному, поэтому если вам гугл почему-то выдает результаты в "Обычном режиме", то в программе также следует установить такой режим. Также теперь к именам сохраняемых файлов добавляется порядковый номер (на случай дублирования имен в оригинале).
Добрый день.
svensen, запускаю вашу программу, настроек не меняю, вбиваю поисковой запрос, в результате, получаю 20 ссылок, а не ~250. Я что-то делаю не так, или гугл что-то поменял, а поэтому программа не точно работает?
Спасибо.
P.S. Отдельно ссылки из log.txt как-то можно получить, кроме варианта с использованием файнридера?
Автору большое спасибо за программу. Пара альтернативных запросов и приличный набор картинок в кармане. Сохранил пару часов работы
Добрый день.
svensen, запускаю вашу программу, настроек не меняю, вбиваю поисковой запрос, в результате, получаю 20 ссылок, а не ~250. Я что-то делаю не так, или гугл что-то поменял, а поэтому программа не точно работает?
Спасибо.
P.S. Отдельно ссылки из log.txt как-то можно получить, кроме варианта с использованием файнридера?
День добрый. Раз вы получаете всего 20 ссылок, значит Гугл у вас дает выдачу не в "Умном", а в "Обычном" режиме. :) Такое обычно бывает когда у вас низкая скорость соединения с интернетом и гугл дает вам выдачу не по 250 результатов, а по 10 с делением по страницам. Выберите в меню программы режим поиска "Обычный поиск Google" и повторите поиск. Дождитесь, пока программа обойдет все 10 страниц выдачи и соберет с них ссылки (это будет видно в программе - зеленый прогрессбар должен дойти до конца). Программу только что проверял, все работает как положено.
Что значит "...Отдельно ссылки из log.txt как-то можно получить, кроме варианта с использованием файнридера?..." - зачем вам файнридер, если вы можете просто открыть руками этот файл log.txt, ведь там и лежат найденные ссылки. :) + По вашим пожеланиям сделал выгрузку найденных линков в текстовый файл ("Парсинг" --> "Выгрузить найденные линки...").
Скачайте новую версию программы.
Имхо любые плюшки и даже интерфейс в парсере только мешают. Все что нужно от парсера - максимально быстро получить список урл по определенному запросу, тобишь задача парсера - экономить по маскимуму время. Остальное прекрасно делают менеджеры закачек и проги для пакетной работы с картинками. А этим парсером обработать, скажем, 30 запросов, по каждому из которых нужно 300 картинок, довольно таки проблематично... часа два надо сидеть наверное.
А этим парсером обработать, скажем, 30 запросов, по каждому из которых нужно 300 картинок, довольно таки проблематично... часа два надо сидеть наверное.
Неправда, т.к. если выдача гугл идет в "Умном режиме" (по 250 результатов на странице), то получение списка из 250 URL на один запрос займет всего пару секунд :)