Какие то ленивые все стали, проги им подавай! Ручками нужно, ручками! Ничего не заменит руки и голову, если они растут откуда надо. Забудьте про проги. Проги для ленивых спаммеров и толку от них ноль!
Смотри логи сервера, либо через Awstat (если на хостинге есть предустановленный включи через ПУ), либо какой нибудь декстопной прогой. Нужно сначала понять кто и что грузит. Может реально какие то качалки тебе мини DOSS делают. Джомла, даже без какой либо оптимизации спокойно работает на обычном шареде при 1000 уникальных посетителей с 5000 просмотров. Это данные с реального сайта моего знакомого, у меня нет на Джомле ни одного сайта, поэтому посмотрел его посещаемость.
Смотрите в сторону MaxSite CMS, функционал не меньше чем у WP а ресурсов потребляет от 4-х до 10 раз меньше как минимум.
А зачем его переносить? Не нравиться домен?
А чего там помогать? Регистрация занимает 5 минут. Настраиваешь кроспостинг или ставишь кнопки типа Pluso и каждый новый пост/статью в твиттер, google+ и прочие, где есть аккаунты. Но что бы от твиттера был толк, нужно что бы кроме тебя ещё кто то знал о твоём акке. Для этого поищи кто в той же теме и подписывайся на них. Они могут в ответ подписаться на тебя. Вовремя удалять тех кого ты читаешь а они нет. Таким макаром хотя бы сотню читателей набери и твиттер будет отлично помогать в раскрутке.
На первый взгляд ничего что может не понравиться Яше не увидел. Насчёт уник-неуник, проблема скорее всего не в этом. Хотя хотя бы основные страницы 2-го уровня вложенности желательно чем то разбавить что бы уникальность была хотя бы 60-70%. Это так, на всякий случай.
Проблема скорее всего в самом Яндексе, он непредсказуем. У меня например два старых СДЛ давно под фильтрами, хотя контент на 80% уникальный и не сильно разворованный. Но на все обращения к Платонам, так же стандартные отписки.
Ну если даже роботы перегружают то скорее всего Ваш хостер отстойный или движок очень тяжёлый и ничего не оптимизировано. Например поставили WP и напихали кучу плагинов которые по большому счёту не нужны.
Первоначально нужно попробовать оптимизировать сам сайт, а потом уж апетиты поисковиков ограничивать.
Если есть возможность посмотреть логи сервера (например если можно включить Awstat) то проанализировав кто откуда когда и сколько - можно что то уже думать. У меня как то на одном отстойном хостинге пара качалок грузили сайт так что хостер пару раз блокировал аккаунт.
Open Server устанавливается даже проще чем Денвер, а работает быстрее и надёжнее, тем более на лету можно менять конфигурацию вплоть до выбора версии php.
У меня один запрос в секунду с паузой в 2 секунды на одном сильно посещаемом сайте который и так, без гуглороботов в пике посещаемости подтормаживал. Но полностью решить проблему удалось не ограничениями а оптимизацией сайта. Ведь кроме гугла есть ещё яша и прочие. Да ещё разного рода неизвестные роботы которые не представляются.
Денвер давно снёс, поставил Open Server и чувствую себя полноправным владельцем веб-сервера