- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Может быть, подскажите уподобоваримое решение.
Может быть подскажите, что именно для вас совсем прям удобоваримо?
Может быть подскажите, что именно для вас совсем прям удобоваримо?
Нужно, чтобы основной сайт, на котором пользователи размещают информацию, не упал в выдаче в google, если мы эту же информацию потом транслируем на другой сайт. Сейчас рассматриваем вариант запретить индексировать повторяющийся контент (частично на странице) на другом сайте, и пока больше ничего не придумали.
Не может быть, роботс в студию!
Host: mysite.com
User-agent: Googlebot
Disallow: /
А зачем?
Думаете, что дублирование инфы в сети приводит к увеличению количества инфы?
Мало вариантов упомянуто?.. хотя можно и найти.
Если они непонятны, то чего ещё объяснять? Вебмастер размещающего сайта пусть и позаботится о неиндексации, он тоже заинтересован...
А лучше забейте в голову то, что вам набредили в начале темы и спите спокойно.
Host: mysite.com
User-agent: Googlebot
Disallow: /
Если будет хоть одна внешняя ссылка, то не смотря на запрет робот все равно проиндексит урл (без содержимого) - подобные страницы не ищутся по точному вхождению текста, по тайтлу, в кэше пусто. Используем мета-тэг noindex для новых страниц или URL Removal Tool для тех страниц что попали уже в индекс.