Emili013

Emili013
Рейтинг
118
Регистрация
05.10.2007

Не совсем доры, но в общем-то недалеко от них ушли и ничего так планируют на IPO выходить: http://habrahabr.ru/blogs/success_stories/98605/

Я попользовался - идея в целом хорошая, но проблема в том, что скрипт выдает довольно мало слов (если речь не про сайт с многотысячной посещаемостью, а для таких сайтов есть более функциональные, хотя и платные инструменты анализа). Я частично пробовал исправить этот недостаток за счет добавления в скрипт запросов, по которым есть переходы, но место по траффику которых >10, т.е. вторая страница выдачи. Но все равно запросов получает довольно мало.

Может быть стоить уменьшить планку попадания запроса в выдачу скрипта? Пусть точность в этом случае будет меньше (они, кстати, в любом случае оставляет желать лучшего), зато будет видно на какие запросы еще стоит обратить внимание.

-BoB4uK-:
"Грубую" оптимизацию страниц рекомендую делать в Пульте, а потом более точную в Руках...

Главное не забыть, что после Рук еще и Голову нужно использовать :)

Чтобы было понятнее вот скриншот того, что вижу я:

Раньше там указывалось предпочтение сайтам из какого региона отдается и ссылка на поиск без учета региона.

naleks:

Запрос приведите.

Увидел на запросах на тему форекса. Потом проверил на запросе "мебель".

AndyM:
Автоматизируйте:)

Согласен, но зачем тратить силы и время на то, что уже кто-то сделал за меня. Особенно если он за это не просит много денег :)

Emili013 добавил 28.06.2010 в 12:16

Уже нашел такой функционал на seolib.ru 0.002 у.е. за слово вроде бы приемлимо, главное чтобы работало корректно..

AndyM:
так чем вас проверка в вебмастере не устраивает?
http://webmaster.yandex.ru/compare_regions.xml?query=%D0%BF%D1%80%D0%B5%D0%B7%D0%B8%D0%B4%D0%B5%D0%BD%D1%82®ion1=213®ion2=187

Тем что на это уходит много времени - если нужно проверить много запросов, это как-то не рационально..

И такая ситуация не только с моими сайтами. Например у bdbd.ru (надеюсь никто не будет сомневаться в корректности их robots.txt), показывает (site:_ww.bdbd.ru) в индексе 488 страниц, без дублей - 193, из них в основном индексе - 81. Среди 488 страниц есть страницы для печати, хотя они совершенно точно запрещены в robots.txt.

Т.е. получается, что Гугл хранит в своем индексе абсолютно все страницы (которые может загрузить), но пускает в поиск лишь часть, и еще меньшую - в основной индекс.

azsx:
значит robots.txt составлен не правильно. Или не читается гуглом. Или недавно менялся, а был другим.

Думаю дело не в этом - правильность проверял через Google Webmaster Tools, он показывает что страницы запрещены в robots.txt и тем не менее через site:url они отображаются (правда без снипета). И такая ситуация почти со всеми моими сайтами. Менялся давно - где-то полгода назад.

Всего: 262