Loofort

Loofort
Рейтинг
28
Регистрация
23.04.2006
Dwarf:
Только вот зачем такой редирект?

Объясняю. Раньше у сайта для главной страницы было 4 адреса. и для каждой свой PR.

(первый столбик - это ПР)

1 domain.com/

2 domain.com/default.aspx

2 www.domain.com/

3 www.domain.com/default.aspx

Это случилось потому что изначально сайт имел версию с www и без www. Внешние ссылки шли на domain.com/ либо на www.domain.com/, а внутренние на domain.com/default.aspx и www.domain.com/default.aspx.

Идея в общем в том что бы слить все PR 301 редиректом на одну страницу www.domain.com/. Интересно кстати что в результате получиться.:)

Я конечно, уже сделал 301 редирект со всех страниц без www на версию с www. А также изменил внутренние линки так что бы они ссылались на www.domain.com/ а не на www.domain.com/default.aspx.

Но вот 301 редирект с www.domain.com/default.aspx на www.domain.com/ не могу сделать, т.к. все методы типа Response.Path возвращают default.aspx даже если пользователь набрал просто www.domain.com/.

---------

Пока я это писал появился попутно вопрос (может даже для новой темы).

Редирект 301 переносит ПР на новую страницу. Вопрос в том, будет ли такой же эффект если сделать что бы линки (ссылающиеся на старую страницу) ссылались на новую. Тогда может можно и не делать 301 редирект?

А не может быть так что гугл страницу посещает каждый день а в кэше она не спешит появляться?

что бы ссылки стали ссылками для людей, гуглу от них надо вобще отказаться т.е. не учитывать в алгоритмах ранжирования.

Кстати может он так и сделал и вместо алгоритмов ранжирования учитывает в алгоритмах индексирования 😂

Я вот ещё что заметил. Site: для моего продвигаемого объекта выдаёт крайне мало проиндексированных страниц (3) и хотя здесь Мэт Кат признался что в Big Daddy команда site: не правельно работала, поклялся что у же всё починили. Так вот при анализе логов вижу заходы с гугла на страницы каторых нет в индексе (во всяком случае я их там не смог найти), и при повторе клиентского запроса в гугл своих страниц я тоже не увидел.

Может site: не всё показывает и вобще теперь работает как link:. Вобщем что-то сдесь не чисто.:)

Я думаю случайную флуктуацию (для случая если результат берётся с разных дата центров) от постоянной зависимости (то что происходит сейчас ) отличит любой. Так что ваше объяснение не подходит :)

з.ы. да и под большим сомнением что гугл каждый раз соединяется с различными датацентрами.

начал вручную копаться в логах, заметил 2 различные UA оставляемые googlebotom:

"GoogleBot/2.1"

и

"Mozilla/5.0 (compatible; Googlebot/2.1; http://www.google.com/bot.html)"

причём с одно ip.

В чём разница?

нет, авторскоеи права совершенно не интересуют с точки зрения легитимности контента. интересует только поисковик (особенно гугл) - будет ли вред моему сайту (этот вред отражается на позициях серпа), от того что кто то ворует у меня контент?

Вывод: кто захочет , тот и стырит; а вся защита для отвода глаз. Я так и Скажу заказчику.

Но мне бы хотелось оперировать другими оргументами. Так например, если предположить что существует технология абсолютно защищающая контент (и причём её внедрение стоит человека-жизнь:) ). Есть ли в ней смысл? Ведь корень проблемы в том что заказчик в первую очередь думает про Серп и как поисковик реагирует если кто то дублирует его контент (такой прошареный заказчик). И ему посути не важно как удержать позицию, принимать меры по защите либо заплатить поисковику (либо хакерам каторые будут ламать чужие сайты). Так вот есть ли смысл внедрять обстрактно существующую обсалютную защиту от капирования?!

Главный вопрос не "как", а "зачем"!

Хорошо, а как отреагируют поисковики когда заметят две одинаковые статьи на разных сайтах, кого они будут пеналить?

Да и сервер IIS с asp.net

1 2345 6
Всего: 55