Вопрос по закрытию страниц печати в robots.txt

XX
На сайте с 07.09.2011
Offline
26
477

Приветствую форумчан.

Вопрос собственно про конкретный случай - есть новостной ресурс на котором у каждой отдельно взятой страницы новости есть своя страница "версия для печати" которая дублирует контент основной страницы. Эта страница имеет уровень вложенности 4 т.е. http://главная/страна/рубрика_новости/новость/страница_для_печати(имеет вид - ?act=print)

Собственно вопрос как именно прописать в Disalow что бы закрыть их от индекса?

На данный момент прописал Disalow: /?act=print

ET
На сайте с 15.01.2013
Offline
16
#1

Нужно закрыть от индексации в robots.txt все страницы чьи url-ы содержат признак "страница для печати"

Если дадите url (можно без самого сайта, начиная со /страна), то вам смогут дать конкретную инструкцию.

Самый полный курс SEO на рынке. (http://www.topexpert.pro/seo-kurs.html) Главный сеошник Wikimart учит думать и продвигать (http://www.topexpert.pro/seo-analytics-school.html) СЕО-драйв (http://www.topexpert.pro/seo-kurs-s.html)
XX
На сайте с 07.09.2011
Offline
26
#2

без проблем :)

сайт/ukraine/politic/9217_viktor_medvedchuk__u_zakritih_dverey__abo_evropeyska_integratsiya_pochalasya/?act=print

Marinka
На сайте с 21.04.2007
Offline
125
#3

Disallow: /*?act=print

SeoHammer (http://www.seohammer.ru/?partnerid=123870) - продвижение сайтов в ТОП. Попробуй нарубить в Kappusta.Ru (http://kappusta.ru/?r=B0CC924593324D4A99EF8016BF16656E)! Поисковый и коммерческий аудиты, цена по договоренности.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий