Не нужно зацикливаться на Аналитике. Гугл имеет полную статистику поведения посетителей на ресурсе и без него. Более 60% серферов используют стучащие ему браузеры (Firefox, Chrome). А ещё ведь тулбары существуют да и примочки разные к ie. Не ставлю его аналитику себе на сайты, так как она не отвечает моим требованиям. И что? Достаточно полить немного трафика на нулёвый ресурс и он без единой ссылки влазит в индекс дней через 5-7.
скоро как-то... :) пара тройка месяцев правдоподобней будет :)
Я бы не стал ни куда совать сайт до тех пор, пока хоть какой-то трафик с гугла не появится. Некоторые говорят, что трастовые ссылки ускоряют процесс, но я не замечал этого. Вот если на сайте сторонний трафик толкаться будет, это плюсом идёт, проверено.
Ни чего удивительного. Гугл умеет читать практически все js ссылки. Но свой код, и коды известных ему сетей, он не учитывает принципиально. ))
Так только кажется. Если голова на месте, то чем больше страниц, тем уникальней можно их сделать.
В моём посте речь шла не об уникальности как таковой, а об уникальности внутри доменного имени. Могу судить по своим сайтам. Страницы, где контент берётся с других страниц этого же сайта (анонсы) или где его практически нет (несколько слов + карта перелинковки), часто вообще исключаются из поиска, на что и жаловался ТС в первом посте.
За:
1. прогнал по каталогам
2. прогнал по соц закладкам
3. купил по 3 ссылки на внутренние страницы
Ждать, пока фильтр снимут.
беки + траст + пр + посещаемость
....
нельзя
Я не прописываю теги и на главной.
Я бы посоветовал вообще исключить из страниц теги description и keywords. Давно от них отказался, из за нецелесообразности их использования. В вашем случае, лучше их не иметь вовсе, чем иметь одинаковые.
Принципиального значения нет. Лучше пусть всё будет как уже есть в индексе.