- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребят, подскажите, если кто знает, плиззз.
Короче, проверяю проиндексированость страниц с обратными ссылками в Гугле.
Делаю это автоматически (прогу написал), даю поисковый запрос info:www.site/page, и получаю результат, либо он (Гугл) знает про эту страницу - либо не знает.
Но т.к запросы посылаются очень часто, примерно на 50-60-м запросе Гугл кричит, что я - это вирус, и банит мой IP на пол дня.
У Яндекса всё ОК, есть сервис http://xml.yandex.ru/ и 1000 запросо в день он позволяет делать любому IP
У Гугля нету такого сервиса случаем, что бы он не банил IP?
Ведь инетовские сервисы многочисленные позволяют делать проверку индексированых страниц как-то и в большом количестве, как они это делают? В смысле, почему их Гугл не банит?
попробуй сделать задержку между запросами или поставь рандомную задержку например от 1 до 10 секунд
мне помогла именно рандомная задержка
aprok, а если скажем в 2-3 секунды сделать, а не рандомную? не помагало?
Elbran, ориентируйтесь на 600-700 запросов в час из одной подсети.
хм, это получается 5-6 секунд интервал в запросах.
Elbran, 7 секунд, да. Прокси можете еще юзать.
OPTIMER, а как до этого прокси в Гугл добраться, ссылку не подскажете, где посмотреть можно?
Делаю это автоматически (прогу написал), даю поисковый запрос info:
Запрос info мало связан с индексацией конкретной страницы. Страница может быть в кэше, находиться поисковыми запросами, но при этом по запросу info ее не покажет. Таких примеров можно привести тысячи.
Malcolm, а как тогда на 100% проверить, проиндексирована страница или нет?
и если можно, примерчик (просто хочеться убедиться)
и если можно, примерчик
Ну вот первое, что под руку попалось.
Эти страницы есть в кэше гугля, но info для них нет (по крайней мере у меня сейчас не показывает).
На счет 100% проверить вопрос сложный. На первом месте по точности запрос cache, но приходится проверять адреса как с www так и без, и этот же запрос самый "тяжелый" в плане проверки - обычно 30-40 запросов и бан.