Мне сегодня суппорт ответил на этот вопрос следующее:
Здравствуйте
i-check будет работать на этой, максимум на следующей неделе.
С Уважением
Михайлова Ольга
Служба поддержки платёжной системы ePayService
Гугл может индексировать страницы, закрытые в robots.txt, вот выдержка
"Следует отметить, что даже если вы запретите поисковым роботам сканировать содержание вашего сайта с помощью файла robots.txt, возможно, что Google обнаружит его другими способами и добавит в индекс."
Далее по тексту
"Используйте метатег noindex, чтобы содержание не появлялось в результатах поиска Google. При наличии метатега noindex на странице Google исключает всю страницу из наших результатов поиска, даже если на нее ссылаются другие страницы. Если содержание уже присутствует в нашем индексе, оно будет удалено при следующем сканировании."
Источник - Справка Google
Также
Чтобы полностью исключить вероятность появления содержания страницы в индексе Google, даже если на нее ссылаются другие сайты, используйте метатег noindex. Если робот Googlebot начнет сканировать страницу, то обнаружит метатег noindex и не станет отображать ее в индексе.
В общем, используйте метатег robots для запрета индексации в Гугл.
Огромное спасибо за сей скрипт, стал для меня просто находкой.
Кроме огромного человеческого спасибо автору пару предложений по скрипту:
1) Подключить возможность выкачки количества бэков из Вебмастера Яндекса (а возможно и просматривать сами бэки: если в вебмастере включена галочка выгрузки в архив, то архив с беками можно выгружать)
2) информер дат апдейтов Яндекса, ТИЦ, PR в основной панели
3) возможность для каждого сайта задавать ручками дату регистрации домена и дату окончания домена (т.к. для РБ автоматом например не возьмет, хуиз белорусские только через капчу работают)
4) возможость для каждого сайта добавлять дату окончания хостинга вручную, чтобы следить когда закончится и получать соотв. уведомления
5) Работа с API Вебмастера Яндекса, а именно: количество страниц в индексе (и их история естественно), популярные запросы, безопасность сайта, сводный отчет (полный список тут: http://api.yandex.ru/webmaster/features.xml)
6) Возможность менять регион проверки позиций в Google
7) Может быть возможность снимать позиции в Яндексе через xml, но наверное опционально, т.к. они зачастую отличаются от реальных.
с чеком позиций по проекту скрипт почему-то не справился. Пробовал по региону Минск
В Беларуси просто ахтунг в выдаче по Минску. Ранее несколько апдейтов это началось: по ГЗ запросам вылазят рушные сайты и свежие результаты, причем и по ВЧ и по коммерческим запросам. Было не по всем сайтам и тематикам (ну и конечно не по всем запросам), немного потом поправили, но не всё
Сейчас такой же бред произошел по всем остальным сайтам: в ТОП20 одни рушные сайты по некоторым ГЗ запросам, а внизу издевательская подпись "При поиске отдано предпочтение сайтам из Минска".
Среди шаблонных ответов ТП Яндекса проскочил один, где они упомянули о работе над изменением алгоритма ранжирования по Минску.
Ура, товарищи, ура.....
В Беларуси очень сильно трясет, но не по всем сайтам/тематикам. Судя по всему проблема как с геозависимостью (по ГЗ запросам просто валом русских сайтов появилось) так и другого рода (нерелевантные сайты, сайты без тайтла и текстов, свежепроиндексированные страницы по достаточно конкурентным ключам). Сегодня ничего не вернулось
Опять взломали сайт. Прошерстил FTP
в корень и папки
tmp
images
cache
залили файлы
ck.htm
index.html с ссобщением о взломе
в корне заменили index.php
А также залили вот эти файлы
public_html/images/xxu.php
public_html/images/stories/muakero.php
public_html/images/stories/mua.gif
через которые судя по всему и получили доступ.
Есть подозрение, что файлы залили через Community Builder, используя возможность загрузить аватарку либо через JCE. Почистил все левые файлы, вернул index.php, убрал на сайте регистрацию вообще, обновил JCE, сменил пароли на ФТП. Посмотрим на результаты.
Спасибо за софт, очень жду следующей версии
Что-то не могу скачать по ссылке на сайте, 404
Утилита неплохая, потестил!
Пожелания
1) Как уже и писали выше, собирать урлы, на которые ведут ссылки
2) Чтобы можно было смотреть плотность слов, входящих в анкоры для определенных страниц - это уже серьезная доработка конечно, но важная...
Столкнулся с этой же проблемой, также взломали сайт на joomla, сейчас занимаюсь восстановлением. Какие принять превентивные меры, чтобы это не повторилось?
Версия Джумлы 1.5.26 - последняя из той линейки.
Кстати, эти хакеры даже в новостях засветились: http://www.vl.aif.ru/hitech/news/51797
Уточнил у хостера, какие предпринять меры, чтобы не повторилось, вот, что он ответил:
1. Прочитайте статью: http://www.eldia.org.ua/stati/stati-o-joomla/53-zametaem-sledy-joomla.html
2. Обновите Joomla и ее компоненты
3. В CPanel установите дополнительный пароль на папку administrator (смотрите раздел "Защита директорий паролем")
Посмотрел в сети: по всему миру эта группа хакеров порядочно так сайтов поломала.