Зависимость выдачи от кол-во проиндексированных страниц

12
[Удален]
1700

Народ, по возможности разъясните такой вопрос.

Насколько сильно влияет на поисковую выдачу кол-во проиндексированных страниц сайта? Дается ли больший приоритет по определенному запросу тем сайтам у кого показатель «Еще с сайта» для этого запроса выше?

K. Ermakov
На сайте с 10.12.2004
Offline
328
#1

Приоритета нет.

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
[Удален]
#2
K. Ermakov:
Приоритета нет.

Понятно. Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть? Или же можно все закрывать в robots.txt и оставлять только самые главные страницы сайта?!

K. Ermakov
На сайте с 10.12.2004
Offline
328
#3
Bekker:
Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть?

Есть, если на каждой уникальный контент (в идеальном мире). Он, к примеру, может собирать траффик по низкочастотным запросам.

Evgeny Smirnoff
На сайте с 12.01.2006
Offline
153
#4

В практике наблюдал такую картину. Никак не мог побить конкурента - показатели вроде одинаковые, морды, все дела... Но он всегда выше меня был.

Потом посмотрел, сколько страниц в базе Яши у него и у меня.

Проблема решилась ополовиниванием проиндексированных страниц у меня.

P.S. Сайт до сих пор на 1 месте.

[Удален]
#5
K. Ermakov:
Есть, если на каждой уникальный контент (в идеальном мире). Он, к примеру, может собирать траффик по низкочастотным запросам.

Т.е., если с внутренних страниц траф не идет, то их можно смело закрывать безо всякого на то риска (имеется ввиду позиции в выдачи по основным поисковым запросам)?

[Удален]
#6
Evgeny Smirnoff:
Проблема решилась ополовиниванием проиндексированных страниц у меня.

Evgeny Smirnoff, не совсем понял сказанное. Не могли бы разъяснить.

АК
На сайте с 05.08.2006
Offline
76
#7
Bekker:
Понятно. Но какие-нибудь плюсы в большем кол-ве проиндексированных страниц сайта есть? Или же можно все закрывать в robots.txt и оставлять только самые главные страницы сайта?!

Во-первых, если контент страниц разный (не дубли) и достаточно уникальный, то будет больше вероятность захода посетителей по различным запросам (в основном низкочастотные запросы) на конкретные страницы, а не только на продвигаемые.

Во-вторых, что вы будете закрывать от индексации? Если, часто обновляемый контент (например, новости), то, с одной стороны, может получится, что сайт у вас станет для yandex'а "редкообновляемым". А это влечет к тому, что к вам будет редко заходить робот.

А, с другой стороны, если не закрыть "лишний и бестолковый" контент, который обновляется и (или) добавляется в огромном количестве, да еще и не уникальный… Может получится, что яндекс будет только его и молотить, а то, что действительно надо быстро проиндексировать (переиндексировать) "не найдет" или "не дойдет"...

...

[Удален]
#8

Всем большое спасибо за ответы, но самое главное то, что я хотел выяснить от меня ускользает. Наверное, вопрос сформулировал изначально не верно. Попробую еще раз :)

Есть большое кол-во страниц («Вопросы-ответы», «Глоссарий»). Контент весь уникальный. Тематичность (специализация) одна, но при этом очень широкая. Безусловно, на всех этих хххххх страницах есть слова и словосочетания (так сказать, ключевики) по которым ведется работа по главной странице.

Учитывает ли Яндекс контент всего сайта для выдачи главной страницы в своем поиске?

Вследствие чего и встает вопрос про robots.txt. Пренебречь НЧ-запросами и трафиком с них ради более частой индексации index и главных страниц сайта. Если, конечно, на качестве выдачи Яндексом гл. страницы это не повлияет.

Bdiang
На сайте с 19.07.2006
Offline
102
#9
Bekker:
Есть большое кол-во страниц («Вопросы-ответы», «Глоссарий»). Контент весь уникальный. Тематичность (специализация) одна, но при этом очень широкая. Безусловно, на всех этих хххххх страницах есть слова и словосочетания (так сказать, ключевики) по которым ведется работа по главной странице.
Учитывает ли Яндекс контент всего сайта для выдачи главной страницы в своем поиске?

<Just IMHO>Я ведет топ ключевиков ВСЕГО сайта и таким образом определяет его тематичность. Ну про стоп слова здесь сказать ничего не могу. И если ключевик НЕ отвечает тематичности ВСЕГО сайта, то по нему НЕ ДАЕТСЯ доп. преимущество. </Just IMHO>

А еще мое мнение, количество страниц сайта влияет на ВИЦ главной страницы, увеличивая его с увеличением числа страниц (при условии, что эти страницы ссылаются на главную - так обычно и бывает) - это из формулы для PR

S
На сайте с 02.02.2007
Offline
0
#10
Bekker:
Вследствие чего и встает вопрос про robots.txt. Пренебречь НЧ-запросами и трафиком с них ради более частой индексации index и главных страниц сайта. Если, конечно, на качестве выдачи Яндексом гл. страницы это не повлияет.

ИМХО, универсального ответа здесь нет. Расширение контента может и улучшить позицию высокочастотника и понизить ее.

Повысить позицию высокочастотника может правильная линковка (см. ответ Bdiang), понизить (иногда весьма значительно) тупое наращивание контента ведущего к растекание вица по бОльшему кол-ву страниц.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий