Взять к примеру отчёт о переходах по поисковым запросам. В том же li.ru сделано гораздо лучше.
Не нужно зацикливаться на Аналитике. Гугл имеет полную статистику поведения посетителей на ресурсе и без него. Более 60% серферов используют стучащие ему браузеры (Firefox, Chrome). А ещё ведь тулбары существуют да и примочки разные к ie. Не ставлю его аналитику себе на сайты, так как она не отвечает моим требованиям. И что? Достаточно полить немного трафика на нулёвый ресурс и он без единой ссылки влазит в индекс дней через 5-7.
скоро как-то... :) пара тройка месяцев правдоподобней будет :)
Я бы не стал ни куда совать сайт до тех пор, пока хоть какой-то трафик с гугла не появится. Некоторые говорят, что трастовые ссылки ускоряют процесс, но я не замечал этого. Вот если на сайте сторонний трафик толкаться будет, это плюсом идёт, проверено.
Ни чего удивительного. Гугл умеет читать практически все js ссылки. Но свой код, и коды известных ему сетей, он не учитывает принципиально. ))
Так только кажется. Если голова на месте, то чем больше страниц, тем уникальней можно их сделать.
В моём посте речь шла не об уникальности как таковой, а об уникальности внутри доменного имени. Могу судить по своим сайтам. Страницы, где контент берётся с других страниц этого же сайта (анонсы) или где его практически нет (несколько слов + карта перелинковки), часто вообще исключаются из поиска, на что и жаловался ТС в первом посте.
За:
1. прогнал по каталогам
2. прогнал по соц закладкам
3. купил по 3 ссылки на внутренние страницы
Ждать, пока фильтр снимут.
беки + траст + пр + посещаемость
....
нельзя
Я не прописываю теги и на главной.