wolf, рискну предположить, что нормировка этой частотной характеристики, которую не затрагивает оператор :: производится по количеству самого частого слова в анкор файле. Это близко к истине?
Инсайдерская информация? :)
Ваш сайт - это пример того, как продвигать не нужно.
1) Host в robots.txt не прописан. Бэклинки - половина на домен с www, половина на без www.
2) Разберитесь под какие запросы какие страницы двигаются - сейчас все в кучу. Есть бэклинки с одним и тем же ключевиком, некоторые из которых ведут на главную, а некоторые на внутреннюю.
3) Уровень текстового спама зашкаливает. Зачем пачкой засовывать ключевики в h1 и стилями делать так, чтобы h1 выглядел, как обычный текст?
4) Как вам уже сказали, все внутренние ссылаются на главную по какому то адресу, site.ru/content/view/36/174/, а должны просто на site.ru.
5) Линкопомойка (аж целых две) - прямая дорога в бан.
Может имеет смысл обратиться к профессионалам?
Интересно, какой финансовый ущерб понесет от этого глюка Директ...
И сколько рекламодателей уйдут, например, в бегун :)
Взгляните исходный html код страницы серпа, возможно вопросы отпадут.
Вам не кажется, что это такая метафора просто? :)
Запаситесь терпением :)
И ещё тулбарный показывает нормированное значение реального PR.
Домены без www и с www так или иначе Яндексом склеятся, после этого все ссылки передадутся тому домену, который будет посчитан основным зеркалом.
Нужно прописать в директиве host в robots.txt тот домен (с www или без www), который нужно считать основным зеркалом и на который будут в дальнейшем ставить ссылки.
А сейчас, кстати, по некоторым запросам ищется с www, а по некоторым без www.
Есть программа GSiteCrawler.
Имитирует Googlebot, сканирует сайт, считает количество страниц. Много всяких фич (например, работа в нескольких потоках, учет/не учет robots.txt, фильтры на phpsession в урлах). Ну и в итоге, если нужно, генерирует sitemap файл.