- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Допустим есть 10 совершенно одинаковых сайтов. Все одинаковое, кроме доменов естественно.
Если на каждом из 10 поставить robots.txt и прописать директиву host соответствующую домену, то яндекс эти сайты не зазеркалит и будет считать разными? Или все таки зазеркалит?
он будет считать сайт под хостом - главным и держать его в индексе, а остальные - зеркалами
Зазеркалит конечно.
Он же по содержанию смотрит, если оно идентично, какой ему смысл в индексе держать несколько документов, всё равно зазеркалит по своему усмотрению.
Или я Вас не так понял или вы меня.
Ситуация такая:
Есть 10 разных доменов(домен1,домен2,домен3,домен4,домен5,домен6,домен7,домен8,домен9,домен10), но сайты на них полностью идентичны.
на каждом домене лежит роботс в котором написано host: домен1(для первого), host: домен2(для второго) и т.д. Т.е. в каждом роботсе как бы указывается, что этот домен главный из десяти. Как яндекс на это отреагирует? Все таки все 10 сайтов будут разными, или 9 штук станут зеркалами?
З.Ы. Пока я писал этот пост, еще два ответа появиось. Все, что тут написано относится к первому ответу.
З.З.Ы. Значит все таки зазеркалит значит... это плохо... где контента бы набрать не ворованного на 10 то сайтов... книги чтоли посканировать...
на каждом домене лежит роботс в котором написано host: домен1(для первого), host: домен2(для второго) и т.д.
Тот же эффект будет, если ничего не писать
лучше из всех доменов указать один
Если я не ошибаюсь, то эту директиву робот учитывает так - если она есть, то тот сайт, в robots.txt которого она указана, является зеркалом указанного в host. Т.е. домен может объявить себя зеркалом, но попытка объявить себя основным сайтом учтена не будет.
Вроде так ребята в Яндексе объясняли, когда ее вводили. Так что идея бессмысленна.
В Host: указывается главное зеркало. Но наличие этой директивы не влияет на принятие решения о склейке, оно влияет только на выбор главного зеркала при склейке.
Спасибо, теперь все яснее некуда. :-) Придется значит все таки к помощи сканера прибегнуть...