Контент страниц "name" и страниц "page" уникальны, только страницы "page" в зависимости от выбранного раздела "name" меняются по содиржанию примерно на 30%. Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄
А что ПС не любит много субдоменов?
Я бы не задумывась выбрал первы вариант, это мне намного удобнее сделать учитывая все тонкости уже существующей структуры, но я боюсь что в этой жизни не дождусь когда это все проиндексируется :) К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.
Надеюсь что без этого 😂
- Возможности сделать более длинные страницы нет, сейчас постараюсь обьяснить подробнее.
- Структура легко позволяет все проиндексировать, но вот сколько это будет по времени... субдомены отдельно индексируются, кто знает?
На самом деле ситуация такова, что в разделе сайта о котором идет речь существует порядка 2000 страниц (подразделов) вида "name(1...2000)" и порядка 1000 страниц (количество будет увеличиваться со временем) вида "page(1...1000+).html" Так вот страницы page.html формируются с учетом выбраной страницы "name", при этом контент страницы "page.html" меняется примерно на 30%.
Это сделано как для реального удобства пользователя, так и для оптимизации под низкочастотные запросы "name + page" которые имеют место быть :)
Какраз именно таким образом и получилось что страниц вышло немало 🙄
И вопрос заключается именно в том как разбить сайт:
1. Оставлять все в 1 разделе
или
2. Разбить по подразделам на субдомены
1. Сделать перелинковку между 5-6 субдоменами (разделами) примерно по 2000*1000(+) страниц (2.000.000+)
2. Сделать перелинковку между ~2000 субдоменами примерно по 5-6*1000(+) страниц (5000-6000)
И кроме оптимизации волнует еще вопрос не дадут ли мне по шапке поисковые системы за 1й вариант. Вот :)
Сам проект значительно больше чем 1.000.000 страниц, это число пришлось именно на 1 из разделов, в принципе похожая ситуация есть еще с несколькими разделами. Поэтому и расматривался вариант выносить ли раздел в субдомен(razdel.site.ua/name/page.html) или сами объекты (name.site.ua/razdel/page.html).
Проект централизован и субдомены являются лишь аналогом страниц сайта в едином дизайне. Создавать 1000 доменов нет возможности и как вариант в принципе не расматривается.
Вопрос именно в организации структуры сайта и эфективноти для поисковых машин, как с точки зарния оптимизации и перелинковки, так и с точки зрения ускорения индексации.
1. Кто-то делал сайты с более 1.000.000 страниц? За сколько времени их может проиндексировать?
2. Будет ли быстрее индексация если сайт будет разбит на 1000 частей (субдоменов name(1...1000).site.ua), посчитает ли их робот как отдельные сайты и будет ли их индексировать отдельно?
3. Перелинковка между этими субдоменами даст эфект похожий на перелинковку между отдельными сайтами?
4. Даст ли эфект постепенный и медленный прогон каждого субдомена по белым каталогам?
Вот об этом я и говорю :)
Ну как сказать... у меня на молодой сайт было за первых 2 месяца 150 000 ссылок сайт выпал на 2 недели и вернулся в топы по всем НЧ, а их там порядка 1000. Вот так :)
Это не фильтр (за такие объемы фильтр не ставят) скорее всего, как уже говорилось, главная страница просто выпала из индекса, проверьте.
Если это так, то при переиндексации имеете неплохой шанс получить в выдаче главную страницу на прежних позициях (или даже выше) и рядом целевую страницу :)
Чесно говоря "генератором" назвать его тяжело, простенький очень: Allow/Disallow и все, могли бы немноо и расширить функциональность всетаки великий и ужасный гугл))))
Скорее это пригодится тем, кто никогда не писал robots.txt
1. Сколько ссылок докупалось?
2. Сколько времени сайт по этим запросам выдается за 100+?
3. Нет ли дальнейшего выпадения сайта по остальным запросам?
Ссылки можно было не снимать, даже если фильтр, а наоборот дать им устоятся, и даже докупить "хороших" ссылок на эти же направления. (ПР4-6) дешевле со страниц 2го и 3го уровня, эфект тот же (сам проверял).
А можно попутный вопрос, зачем вам ПР?
Выдача гугла зависит не от "любви" к сайту, основным фактором ранжирования, будь то текст или ссылки, всетаки была и остается релевантность контента, а так же внутряння структура (в данном случае каталога) а для ссылок еще и дата обнаружения их там.
Так что это не лучший способ собирать качественные каталоги (ИМХО конечно) :)