Obogrel

Рейтинг
21
Регистрация
02.07.2012

Подскажите, пожалуйста, парсер через api (плантный или безплатный неважно). Чтоб максимально просто - выбрал гугл, (по возможности язык интерфейса) отправил запрос и получил количество найденных сайтов и адреса с первой страницы выдачи. Желательно конечно чтоб работал быстро и не глючил. Больше ничего не нужно. Есть такой сервис?

foxi:
этот сервис не ускорит переиндексацию, да и индексацию тоже.

Телепат? Я свои сайты им всегда без проблем загоняю в индекс.

Пользуюсь этим сервисом, индексирует быстро, переиндексировать тоже можно http://www.pro33.net/services#addurl

Yahoo вроде только англоязычные сайты принимает, не?

Засада еще в том, что платить нужно до проверки, если проверку не пройдет и в каталог не примет деньги назад не вернет.

Я тут добавлял, проиндексировался быстро http://www.pro33.net/services#addurl

Что можно было такого в скрипте прописать, чтоб гугл сайт выкинул... имхо проблема не в нем... у меня на нескольких сайтах с середины декабря по середину января снег автоматом идет и ни один из-за этого не страдал

А я спрашивал про те, которые закрыты в robots ;)

Ну домены могут быть не в индексе по разным причинам, не обязательно из-за того что они закрыты в robots

Спасибо. Однако все же не до конца понятно. Если "Мета-тег robots имеет более высокий приоритет", тогда в обратном случае если к примеру в robots.txt стоит Disallow: /, а в index.html <meta name="robots" content="index,follow" />, то индексироваться все равно будет?

Соглашусь с project33. Затронут будут все сайты, а не только 1%. Гугл оперирует неадекватными параметрами.

12
Всего: 13