Mutebot

Mutebot
Рейтинг
37
Регистрация
26.02.2008
di_max:
Повторяю ышо рас - Где написано, что ПС (любая) будет индексить весь НЕУНИК сайтиг?;)

Контент страниц "name" и страниц "page" уникальны, только страницы "page" в зависимости от выбранного раздела "name" меняются по содиржанию примерно на 30%. Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄

di_max:
За первый получить по шапке сложнее. Но!
Что и как линковать - не вопрос, при таком объеме НЕуника...
А за НЕуник - можно и пониже спины получить...;)

А что ПС не любит много субдоменов?

Я бы не задумывась выбрал первы вариант, это мне намного удобнее сделать учитывая все тонкости уже существующей структуры, но я боюсь что в этой жизни не дождусь когда это все проиндексируется :) К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.

di_max:
di_max добавил 16.04.2008 в 10:44
Попадания в бан еще ДО индексации?;)

Надеюсь что без этого 😂

Str256:
Если разделов несколько и они разнотематичны, то их и следует вынести в поддомены. Внутренняя перелинковка при таком количестве страниц, даст высокий PR для главных страниц. Объём сравним с крупными онлайн-библиотеками, либо каталогами.
Для ускорения индексации, вы можете уменьшить число страниц раз в 10 за счёт увеличения их длинны. Если контент уникальный, реализация грамотная, есть карта сайта, то со временем проиндексируется всё. Ускорить можно за счёт внешней рекламы, если продукт будет востребован, то пользователи станут ставить, закладки и ссылки с сайтов, блогов и т.п. на внутренныие страницы, а по ним уже придут роботы.

- Возможности сделать более длинные страницы нет, сейчас постараюсь обьяснить подробнее.

- Структура легко позволяет все проиндексировать, но вот сколько это будет по времени... субдомены отдельно индексируются, кто знает?

На самом деле ситуация такова, что в разделе сайта о котором идет речь существует порядка 2000 страниц (подразделов) вида "name(1...2000)" и порядка 1000 страниц (количество будет увеличиваться со временем) вида "page(1...1000+).html" Так вот страницы page.html формируются с учетом выбраной страницы "name", при этом контент страницы "page.html" меняется примерно на 30%.

Это сделано как для реального удобства пользователя, так и для оптимизации под низкочастотные запросы "name + page" которые имеют место быть :)

Какраз именно таким образом и получилось что страниц вышло немало 🙄

И вопрос заключается именно в том как разбить сайт:

1. Оставлять все в 1 разделе

или

2. Разбить по подразделам на субдомены

1. Сделать перелинковку между 5-6 субдоменами (разделами) примерно по 2000*1000(+) страниц (2.000.000+)

или

2. Сделать перелинковку между ~2000 субдоменами примерно по 5-6*1000(+) страниц (5000-6000)

И кроме оптимизации волнует еще вопрос не дадут ли мне по шапке поисковые системы за 1й вариант. Вот :)

Str256:
А razdel зачем?
1. site.ua/name(1...1000)/page(1....1000).html
2. name(1...1000).site.ua/page(1....1000).html

Сам проект значительно больше чем 1.000.000 страниц, это число пришлось именно на 1 из разделов, в принципе похожая ситуация есть еще с несколькими разделами. Поэтому и расматривался вариант выносить ли раздел в субдомен(razdel.site.ua/name/page.html) или сами объекты (name.site.ua/razdel/page.html).

Разработчик:
Mutebot, не вижу причин не сделать сайт на миллион страниц, индексация не должна затруднить Яндекс при нормальной структуре сайта. С другой стороны, не стоит "класть все яйца в одну корзину", в этом случае выгоднее (и для дальнейших работ по оптимизации, кстати) 1000 доменов, а не поддоменов. Я бы из этих двух вариантов выбирал.

Проект централизован и субдомены являются лишь аналогом страниц сайта в едином дизайне. Создавать 1000 доменов нет возможности и как вариант в принципе не расматривается.

Вопрос именно в организации структуры сайта и эфективноти для поисковых машин, как с точки зарния оптимизации и перелинковки, так и с точки зрения ускорения индексации.

1. Кто-то делал сайты с более 1.000.000 страниц? За сколько времени их может проиндексировать?

2. Будет ли быстрее индексация если сайт будет разбит на 1000 частей (субдоменов name(1...1000).site.ua), посчитает ли их робот как отдельные сайты и будет ли их индексировать отдельно?

3. Перелинковка между этими субдоменами даст эфект похожий на перелинковку между отдельными сайтами?

4. Даст ли эфект постепенный и медленный прогон каждого субдомена по белым каталогам?

hustle:
А если смотреть с другой стороны - для привлечения прямых рекламодателей? Так посещаемость разделится между 1000 доменами, а при поддоменах - она будет общая для сайта.

Вот об этом я и говорю :)

Morgul:
ТС уже снял ссылки, значит про естественность можно вообще забыть. Не надо было снимать, а немного подождать.
Ну и я считаю, что 30-40 ссылок за раз - перебор.

Ну как сказать... у меня на молодой сайт было за первых 2 месяца 150 000 ссылок сайт выпал на 2 недели и вернулся в топы по всем НЧ, а их там порядка 1000. Вот так :)

Denka:
было куплено 30-40 ссылок на внутреннюю страницу, после падения прошло 2 недели.
остальные запросы находятся на своих местах.

Это не фильтр (за такие объемы фильтр не ставят) скорее всего, как уже говорилось, главная страница просто выпала из индекса, проверьте.

Если это так, то при переиндексации имеете неплохой шанс получить в выдаче главную страницу на прежних позициях (или даже выше) и рядом целевую страницу :)

Чесно говоря "генератором" назвать его тяжело, простенький очень: Allow/Disallow и все, могли бы немноо и расширить функциональность всетаки великий и ужасный гугл))))

Скорее это пригодится тем, кто никогда не писал robots.txt

1. Сколько ссылок докупалось?

2. Сколько времени сайт по этим запросам выдается за 100+?

3. Нет ли дальнейшего выпадения сайта по остальным запросам?

Ссылки можно было не снимать, даже если фильтр, а наоборот дать им устоятся, и даже докупить "хороших" ссылок на эти же направления. (ПР4-6) дешевле со страниц 2го и 3го уровня, эфект тот же (сам проверял).

А можно попутный вопрос, зачем вам ПР?

Выдача гугла зависит не от "любви" к сайту, основным фактором ранжирования, будь то текст или ссылки, всетаки была и остается релевантность контента, а так же внутряння структура (в данном случае каталога) а для ссылок еще и дата обнаружения их там.

Так что это не лучший способ собирать качественные каталоги (ИМХО конечно) :)

1 234 5
Всего: 44