Подскажите, пожалуйста, парсер через api (плантный или безплатный неважно). Чтоб максимально просто - выбрал гугл, (по возможности язык интерфейса) отправил запрос и получил количество найденных сайтов и адреса с первой страницы выдачи. Желательно конечно чтоб работал быстро и не глючил. Больше ничего не нужно. Есть такой сервис?
Телепат? Я свои сайты им всегда без проблем загоняю в индекс.
Пользуюсь этим сервисом, индексирует быстро, переиндексировать тоже можно http://www.pro33.net/services#addurl
Yahoo вроде только англоязычные сайты принимает, не?
Засада еще в том, что платить нужно до проверки, если проверку не пройдет и в каталог не примет деньги назад не вернет.
Я тут добавлял, проиндексировался быстро http://www.pro33.net/services#addurl
Что можно было такого в скрипте прописать, чтоб гугл сайт выкинул... имхо проблема не в нем... у меня на нескольких сайтах с середины декабря по середину января снег автоматом идет и ни один из-за этого не страдал
А я спрашивал про те, которые закрыты в robots ;)
Ну домены могут быть не в индексе по разным причинам, не обязательно из-за того что они закрыты в robots
Спасибо. Однако все же не до конца понятно. Если "Мета-тег robots имеет более высокий приоритет", тогда в обратном случае если к примеру в robots.txt стоит Disallow: /, а в index.html <meta name="robots" content="index,follow" />, то индексироваться все равно будет?
Соглашусь с project33. Затронут будут все сайты, а не только 1%. Гугл оперирует неадекватными параметрами.