Уровни. Реальные и физические.

G
На сайте с 02.08.2002
Offline
60
1046

Здравствуйте!

Веб страница выложенная на сервер имеет два уровня, первый - уровень по ссылкам, реальный, например:

index.html -link- vasya.html -link- about_vasya.html (about_vasya - страница третьего уровня, a index.html - первого)

и второй уровень, физический, расположение в структуре папок:

/index.html; vasya.html

/about/about_vasya.html

здесь about_vasya.html уже второй уровень, а vasya.html - вообще первый.

Известно, что скорость индексации страниц второго реального (по ссылкам) уровня меньше, чем первого. Страница about_vasya будет проиндексированна позже, чем vasya.html (кстати, чем больше страниц на сервере, тем большее их количество берет паук за один проход или это число фиксированно?)

А вот как влияет на скорость/качество индексации физическое расположение файлов? Имеет ли смысл, располагать все страницы на одном физическом уровне? А если их 2000 штук?

ЗЫ Прошу прощения за столь подробное изложение материала. Это не от неуважения к уважаемым обитателям конференции, а лишь от желания быть 100% пОнятым:)

Fad
На сайте с 25.09.2001
Offline
124
Fad
#1

Я думаю лучше в первом уровне. Но все таки больше 200 файлов на уровень не стоит. Просто самому трудно будет разообраться где что. А в общем Яндекс индексирует слоями, например иногда в первый заход только первый уровень. Ну а потом послепенно лезет в глубь сайта.

С уважением, Фадеичев Андрей, руководитель проекта "Биржа контента eTXT.ru" (http://www.etxt.ru/)
LM
На сайте с 30.11.2001
Offline
71
LiM
#2
Как писал grecha
[...]

ЗЫ Прошу прощения за столь подробное изложение материала. Это не от неуважения к уважаемым обитателям конференции, а лишь от желания быть 100% пОнятым:)

Бррр... Ну и зачем так усложнять проблему?

1) у всех индексирующих роботов поддерживается список адресов для индексации;

2) из списка по очереди выбирается по одному адресу и робот лезет за содержимым;

3) если в содержимом страницы находится новая ссылка, она добавляется в хвост списка;

4) go to (2)

Мораль: роботу глубоко наплевать на то, как физически располагаются файлы на сервере, а вебмастеру важно,чтобы все адреса страниц максимально быстро попали в этот заветный список. Отсюда и появилась практика создания карт сайтаи запихивания в поисковик адресов карт сайтаане адресов мордашки.

Дальшедумайте сами - много можно индересных мыслей и находок сделать... ;)

С уважением, Андрей Хроленок. Загляни в FAQ по оптимизации и продвижению сайтов (http://www.seoman.ru/FAQ/) Анализатор страниц сайтов (http://www.seoman.ru/analizer/)
G
На сайте с 02.08.2002
Offline
60
#3

а вот в продолжение этой темы, как роботы могут отнестись к большому числу одинаковых пустых страничек на сайте? Тоесть некоторый контент присутствует но минимум и есть разметка. Никаких запрещенных ссылок на них нет, редиректа тоже.

Не посчитает ли это робот спамом, например от удивления:)

LM
На сайте с 30.11.2001
Offline
71
LiM
#4

Нормально отнесутся. В разумных пределах кол-ва таких страничек, конечно...

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий