- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Что делать, если ваша email-рассылка попала в спам](https://d.searchengines.guru/20/96/email-spam_600x314__c5488739.jpg)
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
![В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов](https://d.searchengines.guru/20/96/hacker-2-stock_600x314__f88c1615.jpg)
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайты, все управляются из одной папки (алиасы), сайты разные.
Как сделать robots.txt?
1. Создаем папку robots в корне сайта.
2. Создаем в ней 2 файла: domain1.ru и domain2.ru Заполняем их, только записываем разные домены:
User-agent: *
Disallow /images/
Host: domain1.ru
и
User-agent: *
Disallow /images/
Host: domain2.ru
3. В .htaccess помещаем:
RewriteRule ^robots.txt$ /robots/%{HTTP_HOST} [L,QSA]
Этот вариант работает только при наличии на сервере mod_rewrite. Где-то в .htaccess должна быть строка:
RewriteEngine On
И так далее до бесконечности.
Только причем здесь Яндекс?
humbert, если я правильно понял, то сутуация такова.
сайт1 доступен по адресу http://www.sait1.ru
сайт2 доступен по адресам http://www.sait2.ru и http://www.sait1.ru/sait2/
В этом случае в роботсе для сайта1 закрываем от индексации папочку sait2
а для второго сайта пишем самый обычный роботс.
KindGood, robots именно для яндыкса хочу.
Спасибо, помогло.
IrokezV, Сайты доступны только по http://namesite.ru или http://www.namesite.ru
humbert, если я правильно понял, то сутуация такова.
сайт1 доступен по адресу http://www.sait1.ru
сайт2 доступен по адресам http://www.sait2.ru и http://www.sait1.ru/sait2/
В этом случае в роботсе для сайта1 закрываем от индексации папочку sait2
а для второго сайта пишем самый обычный роботс.
Вы неправильно мыслите. Посмотрите как реализована мультисайтовость, например, в NetCat.
KindGood, мыслю я правильно :) Просто неправильно понял ТС. ;)