с Visuall согласен - так эффективнее
но если прям приспичило по каким-то причинам закрыть категорию от гуглобота, но не от адсбота, то можно в robots.txt использовать для каждого бота свои правила.
User-agent: Googlebot Disallow: /category/category-name User-agent: Mediapartners-Google Allow: / User-agent: Adsbot-Google Allow: /
Два проекта в панели вебмастера сменили ТИЦ, так что подтверждаю.
99.9% блогов на Wordpress имеют ссылки с морды/рубрик на внутряк в h2. Вроде как беды не знают.
Делал недавно такое с 301-м редиректом. Ссылок никаких на свой сайт не покупал.
Гугл полностью все переиндексировал где-то за месяц - было около тысячи страниц. Первое время естественно в вебмастере была ругань на дубли тайтлов и дескрипшн. Особых проседаний не заметил - может быть и были мелкие, как говорил Z-Style, но совсем недолго.
Сайты, над которыми работы не велись, получили +10, над которыми работал - стоят на месте.
На кнопку "копия" нажмите и все будет ясно. Вкратце: у Вас были проблемы с оплатой хостинга или с нарушением условий договора.
А если на странице, закрытой в robots.txt, есть ссылки, то с нее вес будет перетекать по этим самым ссылкам? Т.е. запрет в robots.txt - на что больше похож? На мета "noindex, nofollow" или "noindex, follow"?
На одном из пяти на 10 срезали.
По качеству выдачи "три дня назад", например, в IT-тематике (русский язык, не новости) яндекс, возможно, и лучший.
Некоторые ответы на вопросы по 1с моя жена в яндексе находит шустрее, чем в гуггле. Однако, возникает ощущение, что тут специфика, потому что я (имхо) быстрее нахожу интересующее меня по nix-админке в Google.
Zimbra - это больше collaboration suite. Как замену Exchange его пользовать можно, но как cms вряд ли удастся. Там есть некий функционал wiki, правда не пользовались им ни разу за два года.