- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет!
Начальные условия:
site.ru/page, pod.site.ru/page - одинаковые страницы.
site.ru/robots.txt, pod.site.ru/robots.txt - одинаковые robots.
Проблема:
в выдачу вылезла страница поддомена (pod.site.ru/page) вместо ожидаемой страницы основного домена (site.ru/page).
Вопрос:
Как безболезненно заменить в выдаче pod.site.ru/page на site.ru/page?
Спасибо!
site.ru/robots.txt, pod.site.ru/robots.txt - одинаковые robot
А что в них прописано?
А что в них прописано?
Вот содержимое:
User-agent: *
Crawl-delay: 10
# Directories
Disallow: /includes/
Disallow: /misc/
Disallow: /modules/
Disallow: /profiles/
Disallow: /scripts/
Disallow: /sites/
Disallow: /themes/
# Files
Disallow: /CHANGELOG.txt
Disallow: /cron.php
Disallow: /INSTALL.mysql.txt
Disallow: /INSTALL.pgsql.txt
Disallow: /install.php
Disallow: /INSTALL.txt
Disallow: /LICENSE.txt
Disallow: /MAINTAINERS.txt
Disallow: /update.php
Disallow: /UPGRADE.txt
Disallow: /xmlrpc.php
# Paths (clean URLs)
Disallow: /admin/
Disallow: /comment/reply/
Disallow: /contact/
Disallow: /logout/
Disallow: /node/add/
Disallow: /search/
Disallow: /user/register/
Disallow: /user/password/
Disallow: /user/login/
Disallow: /category/
Disallow: /node/
# Paths (no clean URLs)
Disallow: /?q=admin/
Disallow: /?q=comment/reply/
Disallow: /?q=contact/
Disallow: /?q=logout/
Disallow: /?q=node/add/
Disallow: /?q=search/
Disallow: /?q=user/password/
Disallow: /?q=user/register/
Disallow: /?q=user/login/
Disallow: /?q=category/
Disallow: /?q=node/
Пропишите в robots.txt Host:
Пропишите в robots.txt Host:
В этом случае все региональные (поддомены) сайты выпадуд из индекса?
Предполагаю, что на поддомене надо прописывать тоже
Так?
Предполагаю, что на поддомене надо прописывать тоже
Да, именно так. Для каждого поддомена свой robots.txt со своей директивой Host.
В этом случае все региональные (поддомены) сайты выпадуд из индекса?
Если роботс у всех будет один и тот же - то да, в индексе останется единственный сайт, указанный в Host.
Вам уже дали правильный совет - делайте каждому поддомену свой robots.txt, в котором прописывайте соответствующий Host.
Спасибо за помощь!
Если роботс у всех будет один и тот же - то да, в индексе останется единственный сайт, указанный в Host.
С разным содержанием?
Поддомен может и выкинет, но не в жизни не склеит
С разным содержанием?
Поддомен может и выкинет, но не в жизни не склеит
А никто и не говорите о склейке :-) речь об индексации, как вы правильно заметили.
Нужно выкинуть папку из индекса, при этом вложенные папки трогаться не должны, инструкция будет такая?
Disallow: /папка/
Или она подразумевает исключения и папок, которые в нее вложены?
Извиняюсь за критинический вопрос, я переработал, а ответ нужен сейчас, не пинайтесь =(