Денис

Рейтинг
23
Регистрация
27.11.2002
Должность
инженер-программист

Ok! Это я выяснил :) , но почему у них разный PR, если поисковик их считает аналогами? ...

А еще лучше, чтобы подобные ссылки изначально генерировались динамически, дабы потом подобных проблем небыло :) ... Вообще, нафиг динамический сайт, если ссылки на нем формируются "от руки"? В идеале, при подобной "перетурбации" следовало бы только в одном месте поменять. смотрю, конечно же, со своей колокольни и, следовательно, ИМХО :) ...

Если все считать с главной страницы домена, то там везде новые URL, но дело в том, что старая структура сайта(ссылки с параметрами) тоже осталась и работает... И те страницы имеются в базе Google - по идее, он же прийдет их опять проверять и опять проиндексирует? Или он исходит из доступности тех страниц с головной страницы домена(а оттуда они уже не доступны) и из наличия внешних ссылок на них? А внешние ссылки с других сайтов на старые страницы с параметрами имеются...

Интересует один вопрос - на данный момент в Google имеются многие страницы с параметрами - некоторое время назад на сайте был реализован mod_rewrite - соответственно URL у этих страниц другой, но, при этом, и настоящий тоже работает... Вопрос в том, когда Google проиндексирует новые URL страниц, сможет ли он их соотнести с уже имеющимися и посчитать за одни и те же? - код абсолютно одинаковый, но разные только URL . И поможет ли избежать этого, скажем, какой-то случайный код на странице, который будет всегда разным - то есть попытка сделать вид :) , что страницы разные?

Я, конечно, говорю не о моральной стороне вопроса - она "ежу понятна" :)

А почему это, если недоступен через Explorer, недоступен и роботу? Что мешает, скажем, обрабатывать robots.txt тем же PHP - определяешь user-agent - и если это какой-нибудь Мазилла :) - выдаешь ему, одно, а всем остальным(роботам) другое... Извиняюсь, если для кого-то не открыл Америку... Кстати, насколько оправдано идти на подобные "грязные" методы скажем со страницей ссылок, да и вообще с любой другой?

Я, вроде, не зануда, но продолжу спрашивать :) ... На запрос в Google выдается и мой сайт - я жму "More results from *****.com" и получаю как страницы с домена без www, так и страницы с домена с www... Значит ли это, что домены "склеены"? :) ... И еще в связи с этим этим вопрос - в этом случае страницы ***.com/index.html и www.***.com/index.html считаются одной страницей или разными и в таком случае складывается ли их PR - хотя, думаю, это было бы абсурдно :) , если бы PR зеркал складывался - все бы штамповали зеркала :) ... В любом случае, у меня домены с www и без имеют разный PR...

Хм... Сейчас ввел поиск по названию сайта и получил множество ссылок с других сайтов, так почему же по адресу сайта ничего не выдается...

Еще есть вопрос :) ...

Если из Google-тулбара для сайта выбираю backward links и ищу ссылающиеся на меня страницы, но ничего не находится вообще - между тем ссылки, мягко говоря, есть и очень давно. Находилось ли что-то раньше просто не проверял... В чем может быть дело?

Кстати, еще хотел поинтересоваться, как относится Google к ссылкам с гостевых книг? - теоретически их можно распознать...

Неужели ни у кого нет никаких соображений или вопрос соответсвует названию темы? :) ...

Кстати, проверил PageRank у домена с www и без него и получил разные значения... - Значит ли это, что домены не склеены? ...

Всего: 248