ок, через неделю отпишусь, как гугл отнесся к моим экспериментам. Всем спасибо за совет и участие.
ну на данный момент история следующая.
1.
мойсайт.com - я удалил все файлы с хостинга несколько дней назад, сегодня залил в корень файл robots.txt с содержимым
User-agent: *
Disallow: /
2.
куплен новый домен, разместил на хостинге сайт по адресу:
мойсайт.net - поменялись внутренние адреса, немного изменил структуру, контент остался прежним, добавляю новые статьи
я конечно ламер и напорол много ерунды, вопрос в том, как выйти с минимальными потерями.
Вопрос касательно контента. Я пока не регистрировал сайт в каталогах. Посетителей не было. По идее кроме меня и гугла о его существовании никто не знает. Со старого домена информация удалена, все перенесено на новый и потихоньку развивается. Вся фишка в том, что будет много авторского видео на ютюб со ссылкой на сайт, т.к. необходимая информация будет на сайте. Видео пока не выкладывалось. Жду индексации сайта.
т.е. после этого гугл через некоторое время выкинет страницы из индекса старого домена и будет относиться ко второму как к первоисточнику?
тематика - игра на гитаре
Спасибо за ответ.
Гугл дает такой ответ.
Содержание будет полностью удалено, если доступ к нему заблокирован в файле robots.txt.
как я понял надо подтвердить действие и добавить файл robots.txt в корень каталога сайста. В файле прописать:
Верно?