minimum, может учитывать, а может и нет. Не будет учитывать, если ссылка с параметром nofollow, например.
На оператор link вообще ориентироваться не стоит.
Это называется sitelinks и формируется Гуглем при определенных условиях.
Как раз сегодня небольшая заметка вышла об этом, но на английском:
http://searchengineland.com/070212-093435.php
Сейчас уже нормально все у Гугля, вроде бы, но береженого бог бережет! :)
Индексацией для поисковой базы и для показа объявлений занимаются разные агенты (роботы). Поэтому можно запретить индексацию основному боту, но разрешить -- рекламному.
Читайте подробнее в справке:
http://www.google.com/support/webmasters/bin/answer.py?answer=40364
Вам надо разрешить индексацию агенту Mediapartners-Google.
Вы запросите файл не с заголовком
Accept:*/*
а перечислите форматы, например:
Accept: image/jpg, image/gif
Где-то в этом месте Ваш сервер и выдает 406.
Да, можно склеить при условии, что сайты идентичны. Если нужен Яндекс, то именно директивой Host.
Да, ссылки на info будут учитываться.
Я пробовал.
Не посчитает.
Не знаю как там позиции, а трафик можно поэкономить. ;)
Ksi, куку сессии можно хранить и для домена с www. Можно переключить куку и поменять редирект, ИМХО это будет быстрее, чем сейчас разбираться с зеркалами, потому как даже при всех правильных действиях переклейка может только через пару недель произойти,а с оглядкой на Новый Год и последующие праздники...
Так что я бы напряг разработчика. ;)
Ksi, попросите программиста лучше перенастроить редирект, чтобы он вел с domain.ru на www.domain.ru.
А в роботсе строчка с директивой Host должны идти после строк с Disallow, как-то так:
User-Agent: * Disallow: /files Host: www.domain.ru
Если интересует только Яндекс, тем более каталог, то директива Host: в robots.txt должна помочь. Полгода назад писал статью по склейке зеркал.