Нет, активно сайтом уже давно не занималась. Ссылки ставила совсем по чуть-чуть.
Выпадение морды тут совершенно ни при чем. Так упали все раскрученные внутренние страницы сайта. Эта ситуация длится уже 2 месяца.
Нет, я знаю, что это запретит к индексации весь сайт. Сейчас ситуация у меня улучшилась. Найдено уже 5 страничек. Так что это просто глюки были.
Ну тогда может кто из профессоров подскажет, как ситуацию разрулить?
А как я могу ему верить, если после того, как я написала именно ТАКОЙ роботс, у меня выпали ВСЕ страницы сайта, указанного в хосте? Остались только несколько динамических страничек, которых уже давно нет, и зеркало... Причем когда добавляешь через аддурл, он пишет, что страницы основного сайта знает. А когда смотришь страницы сайта, известные яндексу, то там только эти самые динамические странички. Когда же я хочу их удалить, то он отвечает, что их и в базе-то никогда не было. Что же все-таки это может быть?
Не совсем поняла. Читала здесь на форуме, что в данном случае правильно писать:
User-Agent: *
Disallow:
Host: www.site.ru
То есть Host обязательно должно идти после Disallow, иначе робот запретит индексацию сайта www.site.ru.
На Яндексе http://www.yandex.ru/info/webmaster2.html то же самое написано. Как же все-таки правильно??
Ну, например, такой сайт, повидимому, использует этот приём для оптимизации ссылочной структуры, путём увеличения перелива вИЦ на морду с внутренних страниц. Другие объяснения в голову не приходят.
Хорошо, а если это делается с целью оптимизации ссылочной структуры сайта?
Если говорить о терминологии, то клоакинг, это несколько другое.