- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скан стопроц, а значит для ПС уник.
А что такое мульен из 3 мульярдов извесных Я? Так шта...
На уник не натянет.
Тем более, что если монография = 1000 страниц, то из 1000 книжек - в Инете все равно че-нить уже есть. Со всеми втекающими... для сайтига.;)
di_max добавил 16.04.2008 в 10:44
Mutebot, Ваш случай, похоже, станет прецедентом.
Попадания в бан еще ДО индексации?;)
di_max добавил 16.04.2008 в 10:44
Попадания в бан еще ДО индексации?;)
Надеюсь что без этого 😂
Если разделов несколько и они разнотематичны, то их и следует вынести в поддомены. Внутренняя перелинковка при таком количестве страниц, даст высокий PR для главных страниц. Объём сравним с крупными онлайн-библиотеками, либо каталогами.
Для ускорения индексации, вы можете уменьшить число страниц раз в 10 за счёт увеличения их длинны. Если контент уникальный, реализация грамотная, есть карта сайта, то со временем проиндексируется всё. Ускорить можно за счёт внешней рекламы, если продукт будет востребован, то пользователи станут ставить, закладки и ссылки с сайтов, блогов и т.п. на внутренныие страницы, а по ним уже придут роботы.
- Возможности сделать более длинные страницы нет, сейчас постараюсь обьяснить подробнее.
- Структура легко позволяет все проиндексировать, но вот сколько это будет по времени... субдомены отдельно индексируются, кто знает?
На самом деле ситуация такова, что в разделе сайта о котором идет речь существует порядка 2000 страниц (подразделов) вида "name(1...2000)" и порядка 1000 страниц (количество будет увеличиваться со временем) вида "page(1...1000+).html" Так вот страницы page.html формируются с учетом выбраной страницы "name", при этом контент страницы "page.html" меняется примерно на 30%.
Это сделано как для реального удобства пользователя, так и для оптимизации под низкочастотные запросы "name + page" которые имеют место быть :)
Какраз именно таким образом и получилось что страниц вышло немало 🙄
И вопрос заключается именно в том как разбить сайт:
1. Оставлять все в 1 разделе
или
2. Разбить по подразделам на субдомены
1. Сделать перелинковку между 5-6 субдоменами (разделами) примерно по 2000*1000(+) страниц (2.000.000+)
или
2. Сделать перелинковку между ~2000 субдоменами примерно по 5-6*1000(+) страниц (5000-6000)
И кроме оптимизации волнует еще вопрос не дадут ли мне по шапке поисковые системы за 1й вариант. Вот :)
За первый получить по шапке сложнее. Но!
Что и как линковать - не вопрос, при таком объеме НЕуника...
А за НЕуник - можно и пониже спины получить...;)
За первый получить по шапке сложнее. Но!
Что и как линковать - не вопрос, при таком объеме НЕуника...
А за НЕуник - можно и пониже спины получить...;)
А что ПС не любит много субдоменов?
Я бы не задумывась выбрал первы вариант, это мне намного удобнее сделать учитывая все тонкости уже существующей структуры, но я боюсь что в этой жизни не дождусь когда это все проиндексируется :) К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.
К примеру Гугл за 3 месяца только 10.000 проиндексировал... вот и думаю теперь.
Повторяю ышо рас - Где написано, что ПС (любая) будет индексить весь НЕУНИК сайтиг?;)
Повторяю ышо рас - Где написано, что ПС (любая) будет индексить весь НЕУНИК сайтиг?;)
Контент страниц "name" и страниц "page" уникальны, только страницы "page" в зависимости от выбранного раздела "name" меняются по содиржанию примерно на 30%. Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄
Надеюсь что это для ПС будет достаочным обстоятельством для нормальной индексации :) очень надеюсь 🙄
Тогда: - Дым в трубу! Пельмени - разлепить! 100 яндексов - под хвос... тьфу, килем!;)
Mutebot, я так и не понял насчёт контента - он неуникальный у вас?
1. Хм, а кто сказал что если будет мильён уника, то его сразу проиндексируют). Полюбасику придётся доказывать поисковым системам что он крут (использую раскрутку, прокачку и всё в этом духе). Только тогда они могут начать копать глубже.
2. С поддоменов, вроде как да, поисковики берут свои порции страниц. Но будет ли круто, иметь тысячи поддоменов?
3. Если сайт реально стоит того, хотя может ли сайт стоить того, если он мильён страниц?)))). В общем, если сайт для людей, и будет реально полезная инфа и не 90% будлированного (ворованного и т.п.) контента, то со временем проиндексится.
А насчет, того, сколько страниц ПС могут индексировать, Вам уже предложили сравнить с другими мегастраничными сайтами. Чтобы знать, а можно ли вообще этого достичь разумными затратами. Ибо я себе пока с трудом представляю грамотную перелинковку для мильёна страниц и разделов сайта).
... и ышо один разрез.
Задачка для СЕО-профи:
- За сколько месяцев робот Я обойдет сайтиг с мульеном страниц, если он берет 1 стр в 2 сек?