Как правильно использовать robots.txt при создании мультиязычности?

V
На сайте с 21.03.2013
Offline
29
1385

Добрый день).

Вопрос такой: есть сайт: http://tehno-komplekt.com/ на русском языке где-то 2000 страниц. Нужно добавить плагин мультиязычности, перевести на английский, и я нашел наиболее оптимальный из плагинов. Но! При активации плагина, к домену прибавляется приставка домен/en/ - и автоматически появляется дубль сайта на русском языке (пока не прописан англ. текст). Понятно, что 2000 страниц мгновенно перевести - нереально, этот процесс займет время, к тому же не все страницы будут переводиться. Возникает тогда вопрос, как быть?

Ясно, что дублирование страниц ничего хорошего не принесет.

Я решил на время закрыть каталог en от индексации через файл robots.txt. Кстати, не подскажите, как правильно это сделать?

Disallow: /en/ - и все урлы, которые после http://tehno-komplekt.com/en/ - будут закрыты от роботов?

/en/news/ - и все страницы что в новостях - тоже будут закрыты?

Момент тонкий, не хочется напортачить))).

Станислав Романенко
На сайте с 05.09.2007
Offline
325
#1

Да, всё правильно. Если укажете:

Disallow: /en/

То будут закрыты все страницы, которые начинаются с http://tehno-komplekt.com/en/

Сайт не лезет в топ? Сделаю аудит без воды всего за 8000 рублей! Отзывы клиентов тут (https://searchengines.guru/ru/forum/939454), почта для связи: ingref@ya.ru Посмотрю, в чём проблема с вашим сайтом, за 100 рублей (https://searchengines.guru/ru/forum/comment/15662080).
V
На сайте с 21.03.2013
Offline
29
#2
Ingref:
Да, всё правильно. Если укажете:

Disallow: /en/

То будут закрыты все страницы, которые начинаются с http://tehno-komplekt.com/en/

Спасибо) :)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий