- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Хочу поднять вопрос и обсудить проблемы размещения сайта на нескольких доменах. Бывают случаи, когда контент приходится разнести по нескольким, скажем, поддоменам (например, не вывозит один сервер по ширине канала, или не хватает емкости накопителей), появляются помимо site.ru какие-нибудь s2.site.ru, s3.site.ru, img.site.ru и подобные. Возникает в этом случае немало вопросов. Навскидку: что должна отдавать главная страница таких поддоменов? Как должны выглядеть robots.txt этих поддоменов? Как вообще дать понять ПС, что это не отдельные сайты, а всего лишь кусочки одного, основного?
Как по мне, так в панелях ПС для подобных случаев уже давно напрашивается функционал сродни склейки, чтобы дать понять, что такие-то домены/поддомены выступают источниками контента для основного сайта, а также рекомендации по их настройке.
опишите конкретный пример
Бывают случаи, когда контент приходится разнести по нескольким, скажем, поддоменам (например, не вывозит один сервер по ширине канала, или не хватает емкости накопителей)
Вы по случаю не являетесь владельцем сайта гугл?
Если по сабжу, то есть уже рабочие инструменты, которые позволяют снизить практически любую нагрузку, как на железо, так и на канал связи, не придумывайте велосипед.
опишите конкретный пример
Сайт с видеороликами на n-серверах, сам сайт на домене site.ru, изображения и видео файлы на s1.site.ru, s2.site.ru, ..., sn.site.ru.
Если по сабжу, то есть уже рабочие инструменты, которые позволяют снизить практически любую нагрузку, как на железо, так и на канал связи, не придумывайте велосипед.
Если это намек на то, что что-то можно оптимизировать, то мимо. Если посетители с легкостью забивают канал в 500 мегабит при просмотре видео, то, кроме как разноситься на несколько серверов, вариантов нет.
Если:
Сайт с видеороликами на n-серверах, сам сайт на домене site.ru, изображения и видео файлы на s1.site.ru, s2.site.ru, ..., sn.site.ru.
То ответы на ваши вопросы:
Навскидку: что должна отдавать главная страница таких поддоменов? Как должны выглядеть robots.txt этих поддоменов? Как вообще дать понять ПС, что это не отдельные сайты, а всего лишь кусочки одного, основного?
1. Поддомены не должны вообще открываться сами по себе
2. Никакого robots.txt у них и быть не должно
3. ПС отлично всё поймёт - главное эти поддомены не добавлять в Сёчконсоль и ЯВебмастер
Joker-jar, открой код этой страницы и посмотри откуда берутся картинки.
Это называется CDN. Дальше гуглояндексы помогут.