annet

Рейтинг
50
Регистрация
10.04.2005

Нет, активно сайтом уже давно не занималась. Ссылки ставила совсем по чуть-чуть.

Выпадение морды тут совершенно ни при чем. Так упали все раскрученные внутренние страницы сайта. Эта ситуация длится уже 2 месяца.

Нет, я знаю, что это запретит к индексации весь сайт. Сейчас ситуация у меня улучшилась. Найдено уже 5 страничек. Так что это просто глюки были.

Ну тогда может кто из профессоров подскажет, как ситуацию разрулить?

А как я могу ему верить, если после того, как я написала именно ТАКОЙ роботс, у меня выпали ВСЕ страницы сайта, указанного в хосте? Остались только несколько динамических страничек, которых уже давно нет, и зеркало... Причем когда добавляешь через аддурл, он пишет, что страницы основного сайта знает. А когда смотришь страницы сайта, известные яндексу, то там только эти самые динамические странички. Когда же я хочу их удалить, то он отвечает, что их и в базе-то никогда не было. Что же все-таки это может быть?

Как писал naf
Неделю назад прописал в robot.txt :
User-Agent: *
Host: www.site.ru

Не совсем поняла. Читала здесь на форуме, что в данном случае правильно писать:

User-Agent: *

Disallow:

Host: www.site.ru

То есть Host обязательно должно идти после Disallow, иначе робот запретит индексацию сайта www.site.ru.

На Яндексе http://www.yandex.ru/info/webmaster2.html то же самое написано. Как же все-таки правильно??

Как писал Nikolaich

Не совсем понимаю как это поможет оптимизации ссылочной структуры сайта. Пример есть ?

Ну, например, такой сайт, повидимому, использует этот приём для оптимизации ссылочной структуры, путём увеличения перелива вИЦ на морду с внутренних страниц. Другие объяснения в голову не приходят.

Хорошо, а если это делается с целью оптимизации ссылочной структуры сайта?

Если говорить о терминологии, то клоакинг, это несколько другое.

Всего: 68