- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Есть сайт второго уровня www.domain.ru и сайт третьего уровня sub.domain.ru имеющих общую корневую директорию, т.е. файл robots.txt для них один.
Главными зеркалами должны быть: www.domain.ru и sub.domain.ru
Как сделать правильно с помощью robots.txt или вывода определенных заголовков, чтобы яндекс индексировал только главные зеркала?
В случае с одним доменом, можно было бы просто указать директиву host указывающую на главное зеркало, как это сделать в данном случае я незнаю,
и думаю что лучше было бы выдавать определнный заголовок при заходе на не главное зеркало.
Главными зеркалами должны быть: www.domain.ru и sub.domain.ru
...
В случае с одним доменом, можно было бы просто указать директиву host указывающую на ...
Что значит "главные зеркала" ???
выбирайте ОДИН домен, который надо индексировать и на который вы будете ставить ссылки (логичнее, domain.ru) и пишите его в директиву host при правильно составленном robots.txt
потом копируете полученный robots.txt на домен и на субдомен....ну и на остальные зеркала.
А вообще, в раздел для новичков, уважаемый, с такими вопросами
Есть 2 разных сайта www.domain.ru и есть сайт sub.domain.ru, КОРНЕВАЯ ДИРЕКТОРИЯ ОДНА, ФАЙЛ ROBOTS.TXT общий для двух сайтов, необходимо чтобы яндекс индекировал только страницы с сайтов www.domain.ru и sub.domain.ru, но не с их зеркал domain.ru и www.sub.domain.ru
Впринципе используя mode_rewrite можно сделать разные robots.txt для двух сайтов имеющих общую корневую директорию, и используя host, указать галвные зеркала, т.е. www.domain.ru и sub.domain.ru
Но хотелось бы указать для всех поисковиков страницы с каких доменов индексировать, видел на форуме что можно сделать 301 редирект, но не сооброжу как его сделать в данном случае.
хм... понятно...
а как у них корневая может быть одна ???
что у sub.domain.ru индексный файл в той же папке, что и у родителя лежит, что ли ???
При помощи mode_rewrite для sub.domain.ru отображается собственный индексный файл, поэтому в общем-то я мог бы сделать с помощью mode_rewrite и разный robots.txt - но вообще мне кажется нецелесообразным,
полагаю сделать либо 301 редирект с www.sub.domain.ru -> sub.domain.ru, и domain.ru -> www.domain.ru (потому как изначально яндекс индесировал страницы с www.domain.ru и обратные ссылки соответвующие),
либо выдвать какой-то заголовок без редиректа при заходе на не главное зеркало (www.sub.domain.ru), но незнаю какой именно и можно ли так.
Подскажите пожалуйста суть правильного варианта решения.