- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Нужно спарсить с гугла ссылки на страницы сайта. То есть вбив запрос site:domain.com, получить ссылки на страницы этого сайта. Прикол в том, что у гугла ограничение на 1000 результатов. Видел у A Parser'а модуль, который позволяет парсить больше результатов. Но проблема в том, что у меня нет А парсера, а покупать его за 120$ для одного раза моветон. Может, поможет кто, у кого А парсер есть (можно и платно)? Или может какие-то другие софтины есть бесплатные для этой задачи?
у гугла ограничение на 1000 результатов
Ну это чистой воды профанация, на самом деле больше 620-650 результатов получить не удастся.
какие-то другие софтины есть бесплатные для этой задачи
Не совсем ясна задача... Нужны просто URLы сайта что-ли? Так может проще вытянуть sitemap.xml? Или нужны именно те, которые Гугл показывает через оператор site:example.com?
A-PARSER есть но не помогу, не помню как шаблоны пишутся, и вроде гугол как то бороться стал жестко
A-PARSER есть но не помогу, не помню как шаблоны пишутся, и вроде гугол как то бороться стал жестко
Он капчами замучит, если ходить через site:domain.com по пагинации дальше 2й страницы. И ограничения на кол-во результатов тоже есть.
Более грамотно будет так сделать
Так может проще вытянуть sitemap.xml
Или нужны именно те, которые Гугл показывает через оператор site:example.com?
Ни какой информационной ценности ссылки полученные через оператор site:example.com не несут, т.к. они могут тут отображаться, но отсутствовать в реальной выдаче.
Ни какой информационной ценности ссылки полученные через оператор site:example.com не несут, т.к. они могут тут отображаться, но отсутствовать в реальной выдаче.
Это же легко проверить! А по теме ТСа, проще распарсить все страницы сайта, пройдя по нему тем же бесплатным Xenu, а потом проверить, есть они в Гугле или нет.
site:domain.com a
site:domain.com b
site:domain.com c
Это же легко проверить! А по теме ТСа, проще распарсить все страницы сайта, пройдя по нему тем же бесплатным Xenu, а потом проверить, есть они в Гугле или нет.
Сам сайт не работает. Хочу с кеша гугла восстановить.
---------- Добавлено 04.01.2017 в 13:40 ----------
site:domain.com a
site:domain.com b
site:domain.com c
Пробовал. 30% вытащил (~2к из 7к) и там скорей всего дубли. 2-3-символьные комбинации хз как составлять. В идеале кто-то бы написал в личку с А парсером. :) Капча у гугла появляется (рекапча 2), но разгадывается через рукапчу нормально, API кей дам.
2-3-символьные комбинации хз как составлять.
https://papayainternet.com/ppc-keyword-generator
Кейколлектор купи, он это умеет делать.
http://ascent.pro/ru/selka.html
Сам сайт не работает. Хочу с кеша гугла восстановить.
В Вебархиве не пробовал свой сайт восстановить?