Есть довольно занятная ситуация. Yекоомерческий сайт-хобби. Домену почти год. И за это время домены с www и без до сих пор не склеены. Или склеены, что совершенно не понятно. Есть следующие моменты:
Почему не склеены:
При запросе в Google обоих этих доменов(http://domain.zone и www.domain.zone) выдается по одной странице - той, что запрашивали, но не одна из них в обоих случаях, как если бы домен был склеен.
Обои домены имеют разный PR.
Обои учавствуют в выдаче - третье и четвертое место в выдаче по главному целевому запросу.
Получается не склеены, но...
Почему склеены:
Если в выдаче нажать на ссылку more results from domain.zone, то будут выданы страницы как с домена с www, так и с домена без www, что говорит о том, что Google считает эти домены относящимися к одному сайту.
Причем в списке страниц с домена http://domain.zone первой страницей стоит www.domain.zone.
Что есмь это?
Кстати, страниц с домена выводится в ПЯТЬ раз больше, чем там реально есть :D ... Во первых. благодаря этим двум зеркалам, потом по три версии почти каждой страницы по мнению mod_rewrite. Не склеивает их Google. Какие отрицательные стороны могут быть у такой организации. В принципе, я не имею ничего против того, что Google углядел много независимых страниц :) . С другой стороны, может быть есть какие-то подводные камни? Кроме бана за исскуственное генерирование структуры? А то мне может быть поиграться с mod_rewrite и увеличить количество страниц в несколько сотен раз? У всех у них будет хоть какой-то PR и все они ссылаются на несколько главных.
Гм. PR появился. СкАчки какие-то :)
Я от жизни отстал или как? В выдаче появилась довольно старая версия одного из моих сайтов, причем поднялась по крупному ключевому слову так, как еще не бывало. Хотя и не достаточно, чтобы повалил народ. В основном идут по массе не крупных запросов. Вопрос не в этом. Там чего, дэнс? С какого это фига так сегодня перетурбировалось? И вот, блин, смотрю PR серый... Чего это с Google? Я не про PR - про кардинальную перестановку в выдаче? :) На дэнс не похоже :) .
Не вижу связи. Если сайт реже обновляется, то стоит реже ждать поискового робота.
Нет там скрытых ссылок - уж я-то знаю, что у меня на странице творится :) ...
Просто, вдруг, все, на кого я ссылался через JavaScript, в своих backward links получили ту страницу, откуда ссылался... Я "офигел". Подумал, что у Google в кэше какая-нибудь старая версия страницы - пошел и проверил кэш там же со страницы backward links, но там как раз версия с JavaScript. То есть, получается, теперь Google учитывает такие ссылки.
В целом ничего удивительного - ему и не надо скрипт исполнять. Google уже давно мог привыкнуть к конструкции document.write('<a href=></a>') и просто отслеживать ее... С технологической точки зрения это не намного усложняет задачу Google при разборе текста...
А вот и нифига. Кажется, "лафа" эта кончилась. Вчера напоролся на то, что у одного сайта среди backward links стоит ссылка со страницы, где она закрыта в JavaScript. Проверил кэш той страницы в Google и там тоже JavaScript...
Не нужна тут никакая аргументация - достаточно утверждения, что robots.txt не мешает :) ...
Без данной темы у вас два сообщения - почему бы не перерегистрироваться :) ...
Ну дак любой оптимизатор знает, что посетитель это еще не покупатель :) ...
Первое...
adult что ли? :D ...