Гугл часто индексирует, даже если весь сайт запретить в robots.txt:)
Если ссылки работают в опубликованном материале, не стоит заморачиваться.
Редактируйте в свойствах материала, который хотите запретить к индексации, параметр Robots - поставьте "noindex,follow". Или в robots.txt пишите адреса этих страниц. Специальная тема по joomla /ru/forum/comment/10661198
Покажите пример, что вы хотите закрыть от индексации. Меню указывает на список материалов и вы его хотите закрыть от индексации что-ли?
Тут мне подсказали, что звезда в конце необязательно)
Если у вас все правильные адреса заканчиваются на .html
Попробуйте так:
Disallow: /*.html/*
Хотя если такие ссылки были на сайте недолго, можно не беспокоится.
И лучше всего проверить через Яндекс Вебмастер не затронет ли правило нужные страницы.
Посмотрите через этот сайт "bertal.ru" какие заголовки отдаются сервером. Если все нормально - значит глюк в панели вебмастера.
Навороченный скрипт :)
В разделе "спонсоры" заметил рекламу праституток - забаньте что-ли:)
Да не будет ничего, если сутки. Недавно сайт переносил и из-за проблем с ДНС 3 суток был недоступен сайт, никаких последствий.
Ну тогда посещений должно быть больше.
Просто скорее всего временные промежутки другие.