sndr, звездочка в конце правила не нужна - она "по умолчанию" и так.
А вот если параметры есть у подпапок - вариант Staid самый правильный: Disallow: /*? проверенно рабочий для всех роботов, понимающих регулярки в правилах robots
Скорее в поиск стоит ввести zhopa и jopa и посмотреть, где будут в сниппетах подсвечены русское соответствующее слово. Так оно надежнее.
MS Visio возможно? И прочий софт бля рисования блок-схем, сейчас уже и не помню поименно...
Условные данные можно, например, по similarweb.com
Но это скорее для сайтов с более-менее существенной посещаемостью
полное отсутствие этих данных наблюдаю уже более года... даже по самым популярным запросам.
На http://saitreport.ru в отчетах в том числе и по грамматическим ошибкам постранично есть отчеты
Все реально. "Другие мета-описания" - здесь достаточно приписок к <title>, дескрипшну и кейвордам типа "... ~ Страница N", и программным условием убирать текст с самой страницы.
Уже много лет такое решение является стандартом дефакто, описано вроде еще у Ашманова в книге и много где. И все будет Ок.
Отдельные странички с региональными контактными данными офисов (совершенно не обязательно на поддоменах) + Яндекс.Справочник по каждому из офисов + Месяца три ожидания = необходимые регионы, присвоенные сайту в WMT
Чем плохо?
http://www.unmedia.ru/sokrytie-ssylok.html
Только сам скрипт вынести в файл в папку, закрытую изначально через robots.txt от ботов. Об это также здесь http://devaka.ru/articles/hide-links-from-google и здесь http://alaev.info/blog/post/4042
запрет разделов через robots.txt неполноценен, нужно еще на каждой из запрещенных страниц в <head> внести <meta name="robots" content="noindex,follow"> (запрет индексации с правом переходить по ссылкам, чтобы ссылочного веса не терять)
Закрывать ссылки на разделы в <noindex> также бессмысленно, единственно верный метод - закрытие через JS (<span data-lnk="{целевой урл}">, преобразуемый на лету в ссылку через например jQuery).
Естественно проверить, что запрещенные разделы в xml sitemap не попадают.
Тогда и Яша и Гоша будут комфортно игнорить разделы.
А вообще аффилейт-фильтр накладывается на связку "запрос-документы двух сайтов", так что если семантика у сайтов планируется разная, то можно и не сходить с ума, но все же неисповедим путь робота, будет неприятно, если по нужном запросу станет вылазить страница не того сайта из пары, нераскручиваемая... Так что решать Вам, но делать лучше сразу по-уму.