Если я не ошибаюсь, то только вручную.
Есть другой вариант:
1. Прописать для таких страниц мета тег <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> .
2. Открыть доступ к таким страницам для ботов ПС.
При повторном посещении этих страниц, Google выкинет их с индекса.
Для начала, нужно подождать некоторое время для склейки 2-х сайтов.
Дальше, если на новом сайте стоит ссылка на профиль Google+ и в профиле стоит ссылка на публикации на новом сайте, то проблем с авторством не должно быть.
Ну так Вы сразу наращиваете количество неестественных ссылок. Если накупите несколько десятков, а то и сотен только анкорных, то и загоните страницу под фильтр.
Начните с БА ссылок. Потом добавьте с нужным анкором, но с тематических ресурсом (желательно с хорошими показателями). Так будет как то естественно.
И для домена в зоне *.ua Вы можете выбрать, например, Россия?
P.S. Выбор есть, но только для таких доменов, как com, net, org, info, ...
Правильно написал xarraw - для *.ru - Россия, для *.ua - Украина.
Если я не прав, тогда скрин в студию.
Проседание будет, но если нормально написать текст, проделать работу с внутренними факторами, то все должно быть гуд.
Если на другую релевантную страницу пока нет ссылок, я бы не советовал "лупить" прямые вхождения.
Старые страницы, которые Вы удалили отдает 404 Not Found?
Если да, тогда удалите старые страницы вручную в Google Webmaster, а именно:
Оптимизация -> Удалить URL адреса -> Создать новый запрос на удаление
После удаления проверить в поиске info:domain.com.ua/new-url
и смотрите результат.
Также проверьте, нет ли дубликатов страниц.
P.S. Что то больше можно будет сказать увидев пациента.
Инфо от Google:
В вебмастере Google (Состояние -> Заблокированные URL) Вы всегда может протестировать свой robots.txt.
В поле "Содержание" вставляете свой новый robots.txt. В поле "URL-адреса" вставляете адреса страниц для проверки. Нажимаете "Проверить" и смотрите результат.
Сначала выгрузить все страницы сайта, а затем проверить, по отдельности, на индекс и кеш.
В таком случае, могу с уверенностью сказать, что на страницу наложен фильтр.
Рекомендация:
1. Почистить ссылки от УГ.
2. Разбавить анкор лист.
3. Можно и "с корня" - поменять URL релевантной страницы, а на старую отдать 404 Not Found, но это в крайнем случае.
И еще - а как с текстом: уникальность, тошнота? title, description, h1-h6 - нормальные (хотя у каждого свое понимание "нормальные")?