Willie

Willie
Рейтинг
200
Регистрация
08.10.2008
Ippi:
а что вы имеете против rel="canonical"? Ну кроме "не вижу смысла"? ;)

... работает только в пределах домена. В данном случае не прокатит.

vitalone:
Хорошо, но я хочу иметь возможность считать пользователей с основного и вспомогательного? Скажите пожалуйста, это можно как-то сделать сейчас? Или это невозможно, и лучше просто удалить домен по тихому и все?

Самый простой вариант - счетчик LI (только не додумайтесь поставить один и тот же код на оба домена!). Неделя - и Вы все увидите. Гугл Аналитикс ставить не советую: все может закончиться раньше, чем Вы успеете набрать статистику - Гугол не отрицает, что использует свой счетчик для влияния на результаты ранжирования.

Но дальше... я бы переделал один из них в СДЛ, а второй - ну, сами понимате, во что. Потому, что писать качественный контент на два домена сил у Вас явно не хватит (сужу по задаваемым вопросам).

vitalone:
Поможет ли редирект с вспомогательного домена на основной? Не будет ли у этого решения негативных последствий?

Слово DOORWAY Вам знакомо? В давние-стародавние времена, когда деревья были большие, а поисковые системы - маленькие, именно так они и строились: создавалась куча "вспомогательных" доменов, с которых посетителя волшебным образом перебрасывало на основной.

Сайчас это Путь Самурая. Камикадзе, готового умереть за идею.

sirota77:
А это уже клоакинг, со всеми вытекающими.

Но он этого дождется! Представьте: есть такая форма, вся ЯваСкриптовая, с тормозами жуткими - так как туда ни один нормальный юзер зайти в принципе не может. А Гугл заходит, ждет всей этой загрузки - а после говорит "Ах, фиговенькое у Вас, брат, время доступа". По нормальным - в пределах 0.5 с (что лучше, чем у 90% сайтов), а по этим нескольким - аж до 12 секунд он видит... А кто его сюда звал?! Согласно его же рекомендациям, все СЛУЖЕБНЫЕ, не представляющие интереса для посетителей страницы, перекрыты в РОБОТСе.

... прочитал написанное и задумался ...

Вот смотрите: чтобы удалить каталог из индекса Гугла, надо:

- перекрыть его в robots.txt;

- убедиться, что он дает 404.

Иначе удаление директории не произойдет.

Как он узнает, ЧТО отдает каталог - то есть, его индексная страница, - если не ЗАЙДЕТ на нее?!

Вывод: страницы, запрещенные в robots.txt, Гугл прекрасно обходит. И ЧИТАЕТ содержимое (если оценивет время его загрузки; иначе зачем загружает? Если видит HTTP-отдачу - значит, заходит). Но в индексе не показывает. А кто сказал, что НЕ УЧИТЫВАЕТ?! Например, у Вас (у меня) там линкопомойка. И что: Гугл это видит явно, и продолжает по головке гладить - мол, молодец, веб-мастер, ставь побольше таких на сайт, участвуй в схемах, призванных исказить выдачу в свою пользу ... Да любой ребенок на его месте догадается с трех раз, как надо поступить!

В линкофармах я отдаю гуглообразным код 410, чтоб неповадно соваться было: риск меньший, чем если ее обнаружат. Это проходит на "ура" в совокупности с разными роботсами для поисковых машин и не-поисковиков (это нигде не запрещено, кстати! Пользуйтесь; robots.txt - НЕ контент). Но вот с действительно служебными страницами - что, неужели тоже клоачить?

Ippi:
... кол-во индексируемых на сайте страниц примерно пропорционально пейджранку этого сайта ...

Верно! Пиццоттыщ раз это замечал. Проблема лишь в том, чтобы пропихнуть в ОСНОВНОЙ индекс Гугла много страниц, чтобы они хоть что-то получили в плане PR (как известно, страницы из "соплей" вообще ничто не получают). Кажется, нащупал способ; сейчас на одном буржуйском сайте страницы влетают туда десятками в сутки. Теперь надо подождать АПа, чтобы увидеть, сработало ли на самом деле, или лишь фикция.

Digital-angels:
Неа, там разлет еще больше: от 384 до 920.🤪

Заметьте,

что эти цифры СИЛЬНО отличаются от приведенных в стартовом посте "тысяч". Колбасит Ваш сайт... скорее всего, кончится не очень хорошо, но бывает, что и в ТОП после такого попадают. Зависит от качества страниц: если они слишком хорошие для сайта - то будет повышение; если же обратное - то готовьтесь писать тему "Почему пропал трафик с Гугла".

vitalone:
... при заходе на любую страницу вида http://autonom.com.ua/market/elektrogeneration/ пользователь видит ну же страничку, что и при входе на основной домен: http://avtonom.com.ua/market/elektrogeneration/

Люди (и Гугол) борятся с дублированным контентом - а Вы его сознательно создаете ...

Вас умертвят. В один далеко не прекрасный момент в течении трех дней сайт свалится в никуда, и потом месяца три будете его оттуда вытаскивать тяжелым трудом. Многое видел; но чтоб самому себе создавать копированное содержание - такое впервые.

Там вот что интересненького удалось подсмотреть: оказывается, Гугл зачем-то ходит на запрещенные в robots.txt страницы. И вот их и показывает как самые медленные; оно и понятно - на моем сайте это всякие входы для админов. Не, ничего не индексирует, но зачем-то ходит, и еще учитывает это при оценке скорости сайта!

Что его, на уровне юзер-агента теперь обрубать?

Seo2Up:
Чего не хватает сайту для плотной дружбы с гуглом ?
http://www.drshilov.com/

Так он почти, что в бане: в основном индексе нет главной страницы, зато есть три на немецком языке. А в общем индексе еще есть страницы и на русском, и с явно короткими TITLE.

Не хватает числа страниц, и, наверно, Вы Гугла с языками запутали. Во всяком случае сейчас он считает сайт немецким, оттого и не берет главную страницу в основной индекс (она на английском).

===============

Willie добавил 23.03.2010 в 14:08

Kristof:
видел сайт с 7 пиаром и 1000 по алексе(% там поддоменов не счесть

Так и у бесплатных хостингов поддоменов уйма, и не все они в бане. В рекомендациях Гугла написано, чтоб мы не создавали субдоменов, близких по содержанию к разделам сайта. По всей видимости, когда их много, и есть основания думать, что они НЕ на самостоятельную тематику, он их может поклеить к основному (лучшее, что может случиться) или побанить за аффилированность (соответственно, худшее).

В данном случае я склоняюсь к мысли, что именно это. Поскольку никаких смертельных деффектов на страницах не обнаружено. А в основном индексе нет ни одной! Просто я не знаю, что еще можно предположить. Пока имеем:

- Гугл знает про эти страницы;

- он не считает, что домен имеет самостоятельное значение;

- сами страницы не имеют деффектов, не совместимых с жизнью.

- и тем не менее поддомен мёртв!

По мета KEYWORDS: допускается до четырех слов (включае предлоги) в одном "ключевом слове" (которые перечисляются через запятую). Гугл вроде заявляет, что не учитывает этот тег, но все же лучше сделать по-хорошему. Хотя ничего общего это с главной проблемой не имеет.

KAA-77:
, Гугл не берет в индекс и все :-((((((( а понять почему не могу.
сайт http://azd.ami.ua/

Не исключено, что из-за обилия поддоменов. Вообще это весьма опасная практика - создавать поддомены, которые Гугл может расценить не очень хорошо. Честно говоря, я всерьез ни разу с поддоменами не связывался, поэтому не смогу подсказать, как лучше поступить в Вашем случае.

Что касается отдельных страниц, то смертельных деффектов, из-за чего может произойти тотальное отвержение, я так и не заметил. Да, ляпсусы есть (favicon как-то криво прописан, мета keywords содержит длинные фразы, код далек от чистоты), но за это из индекса не выгоняют! Особенно тревожит то, что главной страницы поддомена НЕТ в основном индексе: такое бывает, когда ей не придается самостоятельного значения. Соответственно, и все "внутряки" с этого поддомена тоже в основной индекс не попадут.

Наверное, все-таки поддомены виноваты.

Всего: 1891