- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Чего ждать от нового Google Core update 2023 и как обезопасить сайт от потери трафика
Разбираемся вместе с командой LinksSape
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую, господа.
Вопрос такого характера. Есть небольшой сайт с информацией, статьями и т.п. на конкретную тематику, при чем уже не один год работающий и успешно в своей нише.
Но это все лирика, а вот собственно вопрос:
Нужно сделать копию этого сайта (за исключением контактных данных, может каких-то других небольших кусков информации, логитипа и т.п.), и чтобы при этом второй сайт не индексировался и никак не влиял на позиции оригинального.
Задача - сделать что-то вроде whitelabel, который будет работать только по прямым переходам посетителей, и не будет существовать для поисковых систем.
Все что я пока что вижу - noindex, nofollow на втором сайте. Но не будет ли ситуации, когда Google хоть и не проиндексирует страницы, но учтёт все и поминусует оригинальный сайт?
Прошу прокомментировать ситуацию с noindex nofollow, и буду благодарен за свежие идеи.
--
Еще один момент, который я забыл упомянуть - на второй (продублированный) сайт, в будущем возможно будут добавляться новые, уже уникальные страницы/контент.
А запретить весь сайт в robots.txt?
https://support.google.com/webmasters/answer/93710?hl=ru
Вот что говорит Google по этому поводу. Самое важное там где "Внимание!" написано.
ТС закройте один в роботс и все, пару стр гугл будет показывать но в целом сайт будет не проиндексирован.
ТС закройте один в роботс и все, пару стр гугл будет показывать но в целом сайт будет не проиндексирован.
Извиняюсь спросить, а как тогда понимать инструкции Google на той странице?
Как вы считаете, какая практическая разница будет между вариантом с robots и noindex/nofollow в мета? Понятно что robots закроет все, а noindex/nofollow страницы по отдельности, но нет ли тут каких-то подводных камней?
И все-таки остается открытым вопрос, не будет ли второй сайт (закрытый в robots или meta) влиять на ранжирование оригинального, даже если и будет исключен из поиска?
Разницы не будет, на ранжирование не влияет.
Как вариант отдавать 404 для ботов ПС, для остальных 200.
Спасибо. Успокоили.
---------- Добавлено 20.02.2017 в 10:02 ----------
Как вариант отдавать 404 для ботов ПС, для остальных 200.
Что-то мне кажется это не совсем корректно будет. А хотелось бы корректно :)