... работает только в пределах домена. В данном случае не прокатит.
Самый простой вариант - счетчик LI (только не додумайтесь поставить один и тот же код на оба домена!). Неделя - и Вы все увидите. Гугл Аналитикс ставить не советую: все может закончиться раньше, чем Вы успеете набрать статистику - Гугол не отрицает, что использует свой счетчик для влияния на результаты ранжирования.
Но дальше... я бы переделал один из них в СДЛ, а второй - ну, сами понимате, во что. Потому, что писать качественный контент на два домена сил у Вас явно не хватит (сужу по задаваемым вопросам).
Слово DOORWAY Вам знакомо? В давние-стародавние времена, когда деревья были большие, а поисковые системы - маленькие, именно так они и строились: создавалась куча "вспомогательных" доменов, с которых посетителя волшебным образом перебрасывало на основной.
Сайчас это Путь Самурая. Камикадзе, готового умереть за идею.
Но он этого дождется! Представьте: есть такая форма, вся ЯваСкриптовая, с тормозами жуткими - так как туда ни один нормальный юзер зайти в принципе не может. А Гугл заходит, ждет всей этой загрузки - а после говорит "Ах, фиговенькое у Вас, брат, время доступа". По нормальным - в пределах 0.5 с (что лучше, чем у 90% сайтов), а по этим нескольким - аж до 12 секунд он видит... А кто его сюда звал?! Согласно его же рекомендациям, все СЛУЖЕБНЫЕ, не представляющие интереса для посетителей страницы, перекрыты в РОБОТСе.
... прочитал написанное и задумался ...
Вот смотрите: чтобы удалить каталог из индекса Гугла, надо:
- перекрыть его в robots.txt;
- убедиться, что он дает 404.
Иначе удаление директории не произойдет.
Как он узнает, ЧТО отдает каталог - то есть, его индексная страница, - если не ЗАЙДЕТ на нее?!
Вывод: страницы, запрещенные в robots.txt, Гугл прекрасно обходит. И ЧИТАЕТ содержимое (если оценивет время его загрузки; иначе зачем загружает? Если видит HTTP-отдачу - значит, заходит). Но в индексе не показывает. А кто сказал, что НЕ УЧИТЫВАЕТ?! Например, у Вас (у меня) там линкопомойка. И что: Гугл это видит явно, и продолжает по головке гладить - мол, молодец, веб-мастер, ставь побольше таких на сайт, участвуй в схемах, призванных исказить выдачу в свою пользу ... Да любой ребенок на его месте догадается с трех раз, как надо поступить!
В линкофармах я отдаю гуглообразным код 410, чтоб неповадно соваться было: риск меньший, чем если ее обнаружат. Это проходит на "ура" в совокупности с разными роботсами для поисковых машин и не-поисковиков (это нигде не запрещено, кстати! Пользуйтесь; robots.txt - НЕ контент). Но вот с действительно служебными страницами - что, неужели тоже клоачить?
Верно! Пиццоттыщ раз это замечал. Проблема лишь в том, чтобы пропихнуть в ОСНОВНОЙ индекс Гугла много страниц, чтобы они хоть что-то получили в плане PR (как известно, страницы из "соплей" вообще ничто не получают). Кажется, нащупал способ; сейчас на одном буржуйском сайте страницы влетают туда десятками в сутки. Теперь надо подождать АПа, чтобы увидеть, сработало ли на самом деле, или лишь фикция.
Заметьте,
что эти цифры СИЛЬНО отличаются от приведенных в стартовом посте "тысяч". Колбасит Ваш сайт... скорее всего, кончится не очень хорошо, но бывает, что и в ТОП после такого попадают. Зависит от качества страниц: если они слишком хорошие для сайта - то будет повышение; если же обратное - то готовьтесь писать тему "Почему пропал трафик с Гугла".
Люди (и Гугол) борятся с дублированным контентом - а Вы его сознательно создаете ...
Вас умертвят. В один далеко не прекрасный момент в течении трех дней сайт свалится в никуда, и потом месяца три будете его оттуда вытаскивать тяжелым трудом. Многое видел; но чтоб самому себе создавать копированное содержание - такое впервые.
Там вот что интересненького удалось подсмотреть: оказывается, Гугл зачем-то ходит на запрещенные в robots.txt страницы. И вот их и показывает как самые медленные; оно и понятно - на моем сайте это всякие входы для админов. Не, ничего не индексирует, но зачем-то ходит, и еще учитывает это при оценке скорости сайта!
Что его, на уровне юзер-агента теперь обрубать?
Так он почти, что в бане: в основном индексе нет главной страницы, зато есть три на немецком языке. А в общем индексе еще есть страницы и на русском, и с явно короткими TITLE.
Не хватает числа страниц, и, наверно, Вы Гугла с языками запутали. Во всяком случае сейчас он считает сайт немецким, оттого и не берет главную страницу в основной индекс (она на английском).
===============
Willie добавил 23.03.2010 в 14:08
Так и у бесплатных хостингов поддоменов уйма, и не все они в бане. В рекомендациях Гугла написано, чтоб мы не создавали субдоменов, близких по содержанию к разделам сайта. По всей видимости, когда их много, и есть основания думать, что они НЕ на самостоятельную тематику, он их может поклеить к основному (лучшее, что может случиться) или побанить за аффилированность (соответственно, худшее).
В данном случае я склоняюсь к мысли, что именно это. Поскольку никаких смертельных деффектов на страницах не обнаружено. А в основном индексе нет ни одной! Просто я не знаю, что еще можно предположить. Пока имеем:
- Гугл знает про эти страницы;
- он не считает, что домен имеет самостоятельное значение;
- сами страницы не имеют деффектов, не совместимых с жизнью.
- и тем не менее поддомен мёртв!
По мета KEYWORDS: допускается до четырех слов (включае предлоги) в одном "ключевом слове" (которые перечисляются через запятую). Гугл вроде заявляет, что не учитывает этот тег, но все же лучше сделать по-хорошему. Хотя ничего общего это с главной проблемой не имеет.
Не исключено, что из-за обилия поддоменов. Вообще это весьма опасная практика - создавать поддомены, которые Гугл может расценить не очень хорошо. Честно говоря, я всерьез ни разу с поддоменами не связывался, поэтому не смогу подсказать, как лучше поступить в Вашем случае.
Что касается отдельных страниц, то смертельных деффектов, из-за чего может произойти тотальное отвержение, я так и не заметил. Да, ляпсусы есть (favicon как-то криво прописан, мета keywords содержит длинные фразы, код далек от чистоты), но за это из индекса не выгоняют! Особенно тревожит то, что главной страницы поддомена НЕТ в основном индексе: такое бывает, когда ей не придается самостоятельного значения. Соответственно, и все "внутряки" с этого поддомена тоже в основной индекс не попадут.
Наверное, все-таки поддомены виноваты.