Гугл учитывает все ссылки, другой вопрос - как он их учитывает.
<meta name="robots" content="noodp" /> :D
2. Может взять, причем сниппет может меняться в зависимости от запроса.
3. От этого можно предохраняться.
Игнорирует description?
Правильно:
User-agent: *
Disallow: /admin/
Disallow: /cart/
Disallow: /test/
Disallow: /VIP/
Disallow: /vip/
Disallow: /search/
Искать нужно везде и все, иногда всплывают интересные ошибки и прочая лабуда, но как правило, все это не то.. Что касается дауна хостера, страница как правило не опускается на сотню позиций а исчезает из выдачи, через день-два (в зависимости от частоты посещения роботом) возращается, если сайт доступен конечно.
Стандартная реакция. Лекарства нет, либо смена IP либо время.
не за счет уникального контента.
Конечно, как вариант, могло повлиять внесение очередных поправок в аглоритм (в тот день изменение выдачи было на 7,4%). Но опять же, внутри сайта не могу ничего найти, разве что Гугл начал распознавать ссылки скрытые через JQuery чтобы разделить навигацию и перелинковку, и теперь наказывает за это, звучит точно бредово..
Да, и еще в начале месяца проводился прогон по тематическим сайтам от товарища nesterdron, 50 сайтов.