Даже поговорка такая есть - деньги к деньгам.
Только хром и лиса дают ему возможность контролировать более 60% трафика, а ещё есть тулбар и другие его приблуды к ie.
Если нет беков, то новый, ни кем не посещаемый, домен может месяц в индекс не брать. Слить на него трафа хорошенько, и за несколько дней проиндексирует без всяких беков.
Врать не буду, стронг вообще не использую, выделяю только подчерком и жирным шрифтом, но думаю со стронгом та же история.
За месяц только крыса разродится может.
Как уже писал выше, для индексации большого объёма страниц необходимы 2 условия
1. Вес ресурса.
2. Возраст ресурса.
Но забыл тогда упомянуть ещё одно, возможно самое важное, условие - посещаемость этих страниц. Даже если сайт динамично обрастает ссылками в течении нескольких лет, страницы, на которые ни кто не заходит, будут выплёвываться с индекса.
Сайтмапы - бесполезная вещь, если на страницу можно добраться с морды переходя по ссылкам. Знание о существовании страницы и взятие её в индекс не одно и то же.
Последнее время вижу ощутимый вред от традиционной внутренней оптимизации контента. Страницы с частыми упоминаниями или выделениями ключевых слов сползают далеко вниз, а поднимаются те, где выделение и повторение ключевиков минимально. Сейчас, если контента на странице не много, оптимальный для бота вариант это ключ в тайтлах, в заголовке, 3-5 упоминаний на странице, из которых одно упоминание выделено тегом. Всё что больше идёт во вред.
Это только у нас, и на жидкие кейворды. В американской выдаче (с их ip) постоянно вижу по своим запросам рекламный блок над выдачей.
Изменяется только цифра, которую пишет гугл, или трафик так же резко скачет как и эта цифра?
Тоже бывает, что пишет разное количество страниц, с большими скачками, но на трафике резких скачков нет. Иногда кажется, что он это количество указывает чуть ли не с потолка.
Я же постом выше написал уже, гугл без всяких аналитиксов знает всё, что ему интересно.
Взять к примеру отчёт о переходах по поисковым запросам. В том же li.ru сделано гораздо лучше.