Что лучше 1 сайт с 1млн. стр. или 1000 сайтов с 1000стр.?

1 23
Mutebot
На сайте с 26.02.2008
Offline
37
#21
rmikel:
Mutebot, я так и не понял насчёт контента - он неуникальный у вас?

Абсолютно уникальны 2000 страниц (они же подразделы) "name" и абсолюно уникальны 1000 страниц "page" Но в варианте razdel.site.ua/name/page.html каждая страница "page" изменяет свое содержани адоптируясь под раздел "name" примерно на 30%.

razdel.site.ua/name/page1.html

razdel.site.ua/name/page2.html

razdel.site.ua/name/page3.html

......

:) Попробуем так:

name1 - ежик

name2 - жираф

name3 - слон

page1 - тапочки

page2 - кепки

page3 - штаны

Получаем :) вот такие станицы

razdel.site.ua/name1/page1.html - Тапочки для ежика (именно подходящие и страница оптимизированна с расчетом на то, что это "тапочки для ежика")

razdel.site.ua/name2/page1.html - Тапочки для жирафа

razdel.site.ua/name3/page1.html - Тапочки для слона

razdel.site.ua/name1/page2.html - Кепки для ежика

razdel.site.ua/name2/page2.html - Кепки для жирафа

razdel.site.ua/name3/page2.html - Кепки для слона

razdel.site.ua/name1/page3.html - Штаны для ежика

razdel.site.ua/name2/page3.html - Штаны для жирафа

razdel.site.ua/name3/page3.html - Штаны для слона

Вот так))) Меняется соответсвенно все, как описание штанов (кепок...) так и альтеги, ссылки, ну и конечно все метатеги, а так же цвета и порядок ссылок на нужные фалы (кепки, штаны и т.п. можно скачать :) ) т.е. уникальность не обсолютная, но я на месте машины скорее всего не счел бы эти страницы идентичными, но я не машина, могу и ошибаться :D

Меня сейчас по больше степени влонует как долго в первом варианте будет происходить индексация, даже если я обеспечу ссылки на 100 000 - 200 000 страниц, не хотелось бы ждать пару лет)) Гуглу скормлю sitemap, может как-то ускорит :) а вот яндекс...

Так и не могу определиться что делать :(

Mutebot добавил 16.04.2008 в 20:20

di_max:
... и ышо один разрез.
Задачка для СЕО-профи:
- За сколько месяцев робот Я обойдет сайтиг с мульеном страниц, если он берет 1 стр в 2 сек?

Вот об этой проблемке и говорю ((

Mutebot добавил 16.04.2008 в 20:25

DyaDya:
1. Хм, а кто сказал что если будет мильён уника, то его сразу проиндексируют). Полюбасику придётся доказывать поисковым системам что он крут (использую раскрутку, прокачку и всё в этом духе). Только тогда они могут начать копать глубже.

2. С поддоменов, вроде как да, поисковики берут свои порции страниц. Но будет ли круто, иметь тысячи поддоменов?

3. Если сайт реально стоит того, хотя может ли сайт стоить того, если он мильён страниц?)))). В общем, если сайт для людей, и будет реально полезная инфа и не 90% будлированного (ворованного и т.п.) контента, то со временем проиндексится.
А насчет, того, сколько страниц ПС могут индексировать, Вам уже предложили сравнить с другими мегастраничными сайтами. Чтобы знать, а можно ли вообще этого достичь разумными затратами. Ибо я себе пока с трудом представляю грамотную перелинковку для мильёна страниц и разделов сайта).

Грамотная и краисивая перелинковка, причем полезная пользователю обеспечена технически красиво, тут проблем не возникает. А по поводу уникальноси контента я описал выше.

Есть идеи, нет времени :)
SG
На сайте с 08.02.2007
Offline
175
#22

По сабжу ИМхО : 1000 сайтов

angr
На сайте с 11.05.2006
Offline
413
#23

SITERATING, тоже думал об этом, но вопрос поставлен был: один сайт или сайт+поддомены...

P.S. Mutebot, намек - все сайты можно подвязать на одну базу данных....

Требуется СЕО-Специалист в Кишиневе, в офис. ()
Mutebot
На сайте с 26.02.2008
Offline
37
#24
angr:
SITERATING, тоже думал об этом, но вопрос поставлен был: один сайт или сайт+поддомены...

P.S. Mutebot, намек - все сайты можно подвязать на одну базу данных....

Как говорилось выше, 1000 сайтов (регистрировать 1000 доменов) нет возможности. Да и нет желания, в том плане что требуется раскрутка именно домена и сайта site.ua причем зона .ua требует немалых вложений и разбивать сайт на бесплатные зоны типа org.ua или чтото подобное ИМХО глупо, может не с точки зрения чистой оптимизации, но по крайней мере пристижности.

Так что вопрос в субдоменах))

V
На сайте с 20.12.2007
Offline
4
#25

Mutebot, Вы спрашиваете "Что лучше 1 сайт с 1млн. стр. или 1000 сайтов с 1000стр.?" И надеетесь на полную индексацию лимона (пишите, что даже больше) страниц. Я, конечно, не авторитет. Скажу более, сам не занимался такими грандиозными проектами. Поэтому то, о чем скажу далее - это лишь мои личные фантазии. Со своими маленькими проектами я неоднократно сталкивался с проблемой нечетких дублей, понятно, что это связано с той или иной степенью неуникальности контента. Делая предположения по Вашему проекту, по умолчанию предполагая, что на всех Ваших страницах будет один и тот же дизайн, а текст будет однотипным, то есть генерироваться с заменой ключевиков (нельзя же написать стоко страниц вручную), могу сказать, что вопрос заключается не в том, когда все Ваши страницы проиндексируются, и не в том как строить сайт: использовать поддомены или нет. Вопрос в том, что надеяться на полную индексацию сайта в Вашем случае безидейно. Вы, наверное знаете, что в новом алгоритме Я вдвое увеличено количество факторов, учитываемых при ранжировании. Но, на мой взгляд, и действующий алгоритм не допустит полной индексации такого сайта.

аренда квартир в санкт-петербурге (http://www.petroarenda.ru)
angr
На сайте с 11.05.2006
Offline
413
#26
Mutebot:
(регистрировать 1000 доменов) нет возможности

это было как предложение, а не как указание к действию...

dittmer
На сайте с 08.01.2007
Offline
74
#27

Ого го. Если встает вопрос о проблеме времени индексации, то какие тут затраты на время разработки!? Абалдеть! У вас там армия трудится?

Mutebot
На сайте с 26.02.2008
Offline
37
#28
angr:
это было как предложение, а не как указание к действию...

Я так и воспринял, просто аргументировал невозможность этого в моем случае. Спасибо за участие :)

dittmer:
Ого го. Если встает вопрос о проблеме времени индексации, то какие тут затраты на время разработки!? Абалдеть! У вас там армия трудится?

Ага, рабы 😂 шутка конечно.

victorr:
Mutebot, Вы спрашиваете "Что лучше 1 сайт с 1млн. стр. или 1000 сайтов с 1000стр.?" И надеетесь на полную индексацию лимона (пишите, что даже больше) страниц. Я, конечно, не авторитет. Скажу более, сам не занимался такими грандиозными проектами. Поэтому то, о чем скажу далее - это лишь мои личные фантазии. Со своими маленькими проектами я неоднократно сталкивался с проблемой нечетких дублей, понятно, что это связано с той или иной степенью неуникальности контента. Делая предположения по Вашему проекту, по умолчанию предполагая, что на всех Ваших страницах будет один и тот же дизайн, а текст будет однотипным, то есть генерироваться с заменой ключевиков (нельзя же написать стоко страниц вручную), могу сказать, что вопрос заключается не в том, когда все Ваши страницы проиндексируются, и не в том как строить сайт: использовать поддомены или нет. Вопрос в том, что надеяться на полную индексацию сайта в Вашем случае безидейно. Вы, наверное знаете, что в новом алгоритме Я вдвое увеличено количество факторов, учитываемых при ранжировании. Но, на мой взгляд, и действующий алгоритм не допустит полной индексации такого сайта.

Спасибо за врозумительную идею, какраз пришел к токому же выводу, изучая индексацию подобных структур (попыток) других проектов, которые попытались реализовать подобное тому что я описывал.

Как выяснилось ни один из подобных (очень крупных) проектов с такими "течеткими дублями" не был проиндексирован более чем на 10%, причем это затруднило индексацию страниц оптимизированных под более высокочастотные запросы.

☝Пришол к решению отказаться от обоих вариантов и сделать:

razdel.site.ua/name

razdel.site.ua/page

С подразделов razdel.site.ua/name(1...2000) ссылаться на razdel.site.ua/page(1...1000) (а не на razdel.site.ua/name(1...2000)/page(1...1000))

Получится:

~2000 страниц типа "одежда для ежика, одежда для жирафа, одежда для слона..."

~1000 страниц типа "кепки для животных, тапки для животных, штаны для животных..."

Индексация пройдет весьма быстро и безболезненно :)

А идею адаптации страниц для пользователя реализовать на cookies или на сессии. Таким образом ПС не будет видеть лишних страниц, а ссылки на нужные страницы не пропадут даром (как в случае с закрытием их в robots) каждая страница razdel.site.ua/page получит ~2000 внутренних ссылок вида "тапки для животного ежик, тапки для животного жираф...." (ну на самом деле красивее конечно :)), также все страницы остануться с уникальным контентом. По прогнозам можно свести все НЧ типа "тапки для ежика (жирафа, слона...)" на страницу "тапки для жифотных", так что за работу ;)

Всем большое спасибо за участие и помощь :)

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий