Контент будет одинаковый для пользователя и робота, в зависимости с какого девайса зашёл пользоватеь.
Если правильно определяется смартфон/планшет и дескоп при заходе с них на сайт, то всё будет в поряде. Роботы разные для мобильных и дескоптных вариантов. Сумбурно, но как-то так.:)
Возможно некорректный код баннера, удали его через phpMyAdmin из таблицы _banners и проверь.
http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#crawl-delay
ТС, а если я из региона решил оформить доставку в Москву?
И ещё такой момент, Билайн (Москва) может выдать как московский, так и питерский динамический IP.
Сегодня у меня Москва, завтра возможно будет Питер.
Удалять нужно через скрипт, не так уж и долго снести 3к. В редактировании новостей есть расширенный поиск, в котором можно задать кол-во выводимых на страницу, укажи там 300 к примеру и за десять заходов будет 3к.
301-й редирект с несуществующих страниц на главную = глупость. ИМХО.
ТС установи сложный пароль и max кол-во авторизаций (три например) и на подбор пароля уйдёт столько лет, сколько не живут.
Сообщения о неудачных попытках авторизаций будут всегда, если такое присходит, т.к. их фиксирует DLE, чтобы их не было нужно IP запрещать на уровне сервера, до DLE.
Нажмите редактирование и посмотрите существует ли полная запись, возможно обрезается чисто для визуального просмотра и на самом деле всё в порядке.
Бред не пишите, для всех page достаточно:
Disallow: /page/
Мавроди. :)
Просто комментарий, что сверху должно быть разрешающее правило, снизу запрещающие.
Disallow: без параметров = Allow: / и наоборот Allow: без параметров = Disallow: /