Добавить на страницах
<meta name="robots" content="all">
Посмотрите
validator.w3.org/check?uri=http://www.kokette.ru/
Профессиональный интерес. А сколько обращений в день? Зачем РСЯ?
Нужно обратиться на хостинг. Поехать и доказать что вы владелец, получить новые пароли ftp, ssh, к базе...
Залить версию из архива (если есть), проверить на всякую гадость, а уже потом выводить.
... а потом:
"ДоХтор, шоЖ я всё болею и болею?"
Стоит сделать страницу с примерами, как это будет выглядеть.
Слишком синхронно.
Я думаю, проблемы на сервере.
Возможно, стоит пнуть админов и сделать автоматическую отправку письма, при принятии решения - "Да", "Нет", "Повременить".
Кода, десять строк... Входящую сделать /dev/null
А так, получается - "Вас много, я одна"
На страницах разделов
http://livedreams.ru/vseskazki
http://livedreams.ru/skachatskazki
http://livedreams.ru/multimedia
выключите JS и посмотрите, что осталось для робота.
Поддержу:
заранее - наречие
За "гостевой пост" спасибо.
Я делал в скрипте, если начинается с www , то вызываем 404
if ($ENV{'HTTP_HOST'} =~ /^www/) { ¬_found($DATA{'HOST_NAME'}); exit; }
Постепенно очищается. Осталось немного.
П.С. это perl :)