используйте мета тег robots
Очевидно то, что ручным санкциям нету даже и года.
Начнем с того, что robots.txt запрещает сканировать, а не индексировать. Если страницы уже были в индексе, через роботс их не выплюнуть.
Как вы узнали, что сайт был под фильтром примерно 2 года?
Ну ссылку с CNN я бы не пожалел купить за 100 бачей для хорошего проекта.
sape.ru - english sites = successful
Боже это такие мелочи, не смертельно, если Вы не перфекционист.
Смотря какие запросы и тематика, у них там по разному все бывает. Начинал свой опыт продвижения с ОАЭ, проработал там успешно 4 года.
С продвижением там все довольно просто, удачи!
Советую лучше взять новый чистенький домен. Там могло быть много чего, начиная от порно, партнерок и заканчивая спам ресурсами и т.п.
Это уже не копирайтинг, это уже семантическое ядро пошло.
Ну разные случаи бывают. У меня в среднем 50 ключевых слов на главную. Бывает 300-400 штук для главной, особенно если это недвижимость, там разных форм ключевиков миллион.
Поэтому у меня ТЗ на копирайтинг состоит из 8 листов.
Хороший совет дали выше, на любой случай. "Смотрите конкурентов"(с)