Старайтесь развивать сайт максимально естественно.
Сквозняк на 100к страниц в сторону месячного сайта это естественно?
Сомневаюсь. Не пытайтесь быть умнее у думать, что сможете всех обмануть, в том числе и Гугл.
Наращивайте ссылочную массу плавно.
Влияет траст страницы донора. Но его измерить никак нельзя.
ПР можно считать неким отражением траста, хотя прямой зависимости и не существует.
Проще говоря: чем выше ПР, тем, в общем случае, больше вероятность того, что и траст больше.
Конечно, это один из основных факторов ранжирования.
Точно, туда попадают картинки среднего и большого размера (это можно легко проверить поигравшись с настройками images.google.com).
C Willie спорить не буду, это бесполезно. Доказано Zanussi.
Сайт бы показали.
Почему только 20 кб? Давайте 2 кб, что б уж точно не тяжело было.
Не только обещали, первые шаги уже сделали. Как минимум в Webmaster Tools добавили проверку скорости загрузки страницы. Другой вопрос, что работает она на троечку.
Мне кажется, что ввод может затянутся, так как нужно много тестов, что бы потом не возникло ситуации при которой топ-10 это страницы вида:
<head> <title>Site title</title> </head> <body> Some content </body>
Да, есть мнение, что у Яндекса тоже сущесвует дополнительный индекс.
Разница в том, что у Гугла его можно посмотреть, а у Яндекса он невидимый, т.е. внешне вы никак не поймете что со страницей - не проиндексирована или вылетела в дополнительный индекс, например после работы АГС.
Еще более далекоидущий вопрос - работают ли ссылки с сайтов, которые в дополнительном индексе. Несколько месяцев назад Сеопультовцы проводили исследования на эту тему, но результатов я, к сожалению, не знаю.
Бред. 10 бредов.
Точно эта? Не путаете с code.google.com?
(Не намекаю на то, что ошибаетесь, хочу выяснить истину, так как показанное ТС тоже увидел впервые, а про code.google.com давно знаю).