вы определитесь под какой запрос будите оптимизировать. Если сразу под 3, то нужно применить 3 критерия:
1) Читаемость и ясность для людей.
2) Плотность вхождения ключевых слов.
3) Важность того или иного запроса.
Время на переиндексацию требуется обычно больше. Поэтому ждите..странно, что Платон молчит месяц...Такого за ним не замечал.
плавное наполнение является показателем развития сайта. Если сайт развивается, то он считаете лучше чем статичный сайт.
это не фильтр, а дублирование контента внутри сайта. Есть тег каноникал - закройте дублирующие страницы и будет вам счастье.
это называется - надеемся на лучшее, готовимся к худшему. Философия оптимизма.
По теме - план мне нравиться. Правда в нём гибкости маловато. Оптимально не нужно видеть всех шагов - важно видеть следующий шаг и конечную цель. Другие шаги делаются по ходу, в соответствии с получаемой обратной связью.
может есть какие то составы, которые только кошки не переносят?
или...
отдайте Куклачеву на воспитание. :)
ссылки с новой статьи новостного сайта(хорошо индексируемого) должна неплохо загонять в индекс.
Раньше активно продвигалась идея с РСС каталогами - сейчас не знаю насколько она рабочая.
проанализируйте ссылки на конкурентов. возможно у кого открыта статистика (наврядли конечно) - её тоже неплохо посмотреть.
ну и вообще как говорит Яша - развивайте сайт и всё пучком :).
составляя не очень человеческий тайтл теряете часть переходов.
Я бы советовал выбрать один - самый ВЧ запрос и сделать титл по нему.
Остальные запросы сделать под внутренние страницы.
1) фильтр с вирусом - наврядли.
2) по идее в гугле не происходит выкидывания из индекса за вирус - просто он переходить не дает на вирусные сайты. Не знаю, как в яндекс, а в гугле пишешь в поддержку - они заново проверяют и снимают предупреждение.
3) Способов несколько - самые оптимальный - сделать полный апдейт. Проверить права на папки, сменить пароли на ФТП.