Что лучше 1 сайт с 1млн. стр. или 1000 сайтов с 1000стр.?

123
di_max
На сайте с 27.12.2006
Offline
262
#11
rmikel:
Скан стопроц, а значит для ПС уник.

А что такое мульен из 3 мульярдов извесных Я? Так шта...

На уник не натянет.

Тем более, что если монография = 1000 страниц, то из 1000 книжек - в Инете все равно че-нить уже есть. Со всеми втекающими... для сайтига.;)

di_max добавил 16.04.2008 в 10:44

юни:
Mutebot, Ваш случай, похоже, станет прецедентом.

Попадания в бан еще ДО индексации?;)

// Все наши проблемы от нашего не знания...
Mutebot
На сайте с 26.02.2008
Offline
37
#12
di_max:
di_max добавил 16.04.2008 в 10:44
Попадания в бан еще ДО индексации?;)

Надеюсь что без этого 😂

Str256:
Если разделов несколько и они разнотематичны, то их и следует вынести в поддомены. Внутренняя перелинковка при таком количестве страниц, даст высокий PR для главных страниц. Объём сравним с крупными онлайн-библиотеками, либо каталогами.
Для ускорения индексации, вы можете уменьшить число страниц раз в 10 за счёт увеличения их длинны. Если контент уникальный, реализация грамотная, есть карта сайта, то со временем проиндексируется всё. Ускорить можно за счёт внешней рекламы, если продукт будет востребован, то пользователи станут ставить, закладки и ссылки с сайтов, блогов и т.п. на внутренныие страницы, а по ним уже придут роботы.

- Возможности сделать более длинные страницы нет, сейчас постараюсь обьяснить подробнее.

- Структура легко позволяет все проиндексировать, но вот сколько это будет по времени... субдомены отдельно индексируются, кто знает?

На самом деле ситуация такова, что в разделе сайта о котором идет речь существует порядка 2000 страниц (подразделов) вида "name(1...2000)" и порядка 1000 страниц (количество будет увеличиваться со временем) вида "page(1...1000+).html" Так вот страницы page.html формируются с учетом выбраной страницы "name", при этом контент страницы "page.html" меняется примерно на 30%.

Это сделано как для реального удобства пользователя, так и для оптимизации под низкочастотные запросы "name + page" которые имеют место быть :)

Какраз именно таким образом и получилось что страниц вышло немало 🙄

И вопрос заключается именно в том как разбить сайт:

1. Оставлять все в 1 разделе

или

2. Разбить по подразделам на субдомены

1. Сделать перелинковку между 5-6 субдоменами (разделами) примерно по 2000*1000(+) страниц (2.000.000+)

или

2. Сделать перелинковку между ~2000 субдоменами примерно по 5-6*1000(+) страниц (5000-6000)

И кроме оптимизации волнует еще вопрос не дадут ли мне по шапке поисковые системы за 1й вариант. Вот :)

Есть идеи, нет времени :)
di_max
На сайте с 27.12.2006
Offline
262
#13

За первый получить по шапке сложнее. Но!

Что и как линковать - не вопрос, при таком объеме НЕуника...

А за НЕуник - можно и пониже спины получить...;)

Mutebot
На сайте с 26.02.2008
Offline
37
#14
di_max:
За первый получить по шапке сложнее. Но!
Что и как линковать - не вопрос, при таком объеме НЕуника...
А за НЕуник - можно и пониже спины получить...;)

А что ПС не любит много субдоменов?

Я бы не задумывась выбрал первы вариант, это мне намного удобнее сделать учитывая все тонкости уже существующей структуры, но я боюсь что в этой жизни не дождусь когда это все проиндексируется :) К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.

di_max
На сайте с 27.12.2006
Offline
262
#15
Mutebot:
К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.

Повторяю ышо рас - Где написано, что ПС (любая) будет индексить весь НЕУНИК сайтиг?;)

Mutebot
На сайте с 26.02.2008
Offline
37
#16
di_max:
Повторяю ышо рас - Где написано, что ПС (любая) будет индексить весь НЕУНИК сайтиг?;)

Контент страниц "name" и страниц "page" уникальны, только страницы "page" в зависимости от выбранного раздела "name" меняются по содиржанию примерно на 30%. Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄

di_max
На сайте с 27.12.2006
Offline
262
#17
Mutebot:
Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄

Тогда: - Дым в трубу! Пельмени - разлепить! 100 яндексов - под хвос... тьфу, килем!;)

rmikel
На сайте с 25.05.2007
Offline
142
#18

Mutebot, я так и не понял насчёт контента - он неуникальный у вас?

- Здесь (http://www.sape.ru/r.fa62530507.php) становятся богатыми буратинами... и здесь (http://www.mainlink.ru/?partnerid=11422) тоже. ;) - "В жизни нет ничего такого, ради чего стоило бы спешить" (c)то-то сказал.
DyaDya
На сайте с 11.04.2007
Offline
147
#19

1. Хм, а кто сказал что если будет мильён уника, то его сразу проиндексируют). Полюбасику придётся доказывать поисковым системам что он крут (использую раскрутку, прокачку и всё в этом духе). Только тогда они могут начать копать глубже.

2. С поддоменов, вроде как да, поисковики берут свои порции страниц. Но будет ли круто, иметь тысячи поддоменов?

3. Если сайт реально стоит того, хотя может ли сайт стоить того, если он мильён страниц?)))). В общем, если сайт для людей, и будет реально полезная инфа и не 90% будлированного (ворованного и т.п.) контента, то со временем проиндексится.

А насчет, того, сколько страниц ПС могут индексировать, Вам уже предложили сравнить с другими мегастраничными сайтами. Чтобы знать, а можно ли вообще этого достичь разумными затратами. Ибо я себе пока с трудом представляю грамотную перелинковку для мильёна страниц и разделов сайта).

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)
di_max
На сайте с 27.12.2006
Offline
262
#20

... и ышо один разрез.

Задачка для СЕО-профи:

- За сколько месяцев робот Я обойдет сайтиг с мульеном страниц, если он берет 1 стр в 2 сек?

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий