Не совсем доры, но в общем-то недалеко от них ушли и ничего так планируют на IPO выходить: http://habrahabr.ru/blogs/success_stories/98605/
Эту нововведение анонсировали 1 июля.
Я попользовался - идея в целом хорошая, но проблема в том, что скрипт выдает довольно мало слов (если речь не про сайт с многотысячной посещаемостью, а для таких сайтов есть более функциональные, хотя и платные инструменты анализа). Я частично пробовал исправить этот недостаток за счет добавления в скрипт запросов, по которым есть переходы, но место по траффику которых >10, т.е. вторая страница выдачи. Но все равно запросов получает довольно мало.
Может быть стоить уменьшить планку попадания запроса в выдачу скрипта? Пусть точность в этом случае будет меньше (они, кстати, в любом случае оставляет желать лучшего), зато будет видно на какие запросы еще стоит обратить внимание.
Главное не забыть, что после Рук еще и Голову нужно использовать :)
Чтобы было понятнее вот скриншот того, что вижу я:
Раньше там указывалось предпочтение сайтам из какого региона отдается и ссылка на поиск без учета региона.
Увидел на запросах на тему форекса. Потом проверил на запросе "мебель".
Согласен, но зачем тратить силы и время на то, что уже кто-то сделал за меня. Особенно если он за это не просит много денег :)
Emili013 добавил 28.06.2010 в 12:16
Уже нашел такой функционал на seolib.ru 0.002 у.е. за слово вроде бы приемлимо, главное чтобы работало корректно..
Тем что на это уходит много времени - если нужно проверить много запросов, это как-то не рационально..
И такая ситуация не только с моими сайтами. Например у bdbd.ru (надеюсь никто не будет сомневаться в корректности их robots.txt), показывает (site:_ww.bdbd.ru) в индексе 488 страниц, без дублей - 193, из них в основном индексе - 81. Среди 488 страниц есть страницы для печати, хотя они совершенно точно запрещены в robots.txt.
Т.е. получается, что Гугл хранит в своем индексе абсолютно все страницы (которые может загрузить), но пускает в поиск лишь часть, и еще меньшую - в основной индекс.
Думаю дело не в этом - правильность проверял через Google Webmaster Tools, он показывает что страницы запрещены в robots.txt и тем не менее через site:url они отображаются (правда без снипета). И такая ситуация почти со всеми моими сайтами. Менялся давно - где-то полгода назад.