ну киньте код этот через яваскрипт (вывода флеша), чтобы поисковик его не грузил на всякий случай.. а вообще, 800 к. уже терпимо, по крайней мере у некоторых только js подгружается на этот объем, другое дело - насколько падает юзабельность сайта без него, у меня например флеш по запросу грузится, и если я не вижу навигации например, которая во флеше могу и скинуть сайт, а это уже поведенческий момент, тоже не гут.
Уникальность текста никак не зависит от обертки. Другое дело - смена урлов, по старым если будет 404 то считайте потеряете траф на время обновления. Битрикс весьма неплоха, и может я ошибаюсь, но у меня проекты на битре куда более быстро стартуют в Яшке, может он использует этот движ как показатель траста, а может просто структура более удачна на нем, насчет других движков - больше будет зависеть как он выдаст контент - скорость ответа, тайтлы, урлы, и кол-во мусора (соотношение кода к тексту), но никак не уникальность...
"Хоста" - это вы про хостера? Что там проверять, акк на спейсвебе судя по линку, и врятли их настройки меняли. А то что джомла старая - 100п. дыра в компоненте, тут уже практически при любой настройке зальется.
Ну, это понятно что уроды, просто тратить на них время бесполезно. Тем более что сейчас активизировались они весьма, каждый второй школьник этим промышляет.
Фтп сейчас мало кто угоняет, хотя тоже вариант.. чаще сканят просто домены на уязвимости.. потом разово заливается шел все равно, потом уже по нему работа идет т.к. они как правило работают автоматом - есть база сайтов жертв, на них автоматом проставляются заказанные линки через проиклюденный код. Вот его вместе с шеллами надо искать. ПО дате модификаций файлов, по сигнатурам, как правило кодируется код многократно, после чистки желательно поставить отслеживание на изменение файлов, у меня например отчет на почту идет если что-то модифицируется, стало проще вовремя такое выявлять если повторится. Могу заняться в принципе, если что пишите в личку.
Была аналогичная проблема, на сервере около 100 сайтов было загажено, большинством тоже старые джомлы. Чистить пришлось глобально - поиском по модифицированным файлам, по сингатурам - было натыкано куча шеллов, перед этим залито через дыры в движках. В итоге - туча работы по закрытию дыр, чистке от залитых шеллов, и уж до того, чтобы искать кто и как залил точно нет дела. А смысл? Кто-то прогнал нет по дырявым базам, натыкал шеллов, продал наверняка черному сеошнику, тот как говорится, ничего личного чисто бизнес... и толку его искать? Упритесь на защиту лучше чтобы повторно не вляпаться
Вам весьма правильно указали на решение, т.к. только владеющий php человек решит вашу проблему глобально, например, допилив тот кривой "сеф" что вы имеете.
Сейчас как вариант, можете просто исключить дубли php через роботс.тхт:
Disallow: /*.php
Только вот,, возможно на вашем сайте есть и полезные не дубли, которые идут c этим расширением только
есть скрипт по проверке наличия страниц с купленными ссылками в индексе, работает через яндекс апи, со 100% отчностью, в связи с чем лишь одна трудность - каждая тысяча запросов в сутки требует отдельного аккаунта яндекса, но в итоге все автоматизировано, загружаются страницы с сапы, каждый день проверяются индекс, те что не в индексе можно посмотреть и снести. Если интересно, могу поставить как сервис, но т.к. это нагрузка на сервак + заморочка с созданием ботов под каждую тысячу запросов, небесплатно. если интересно - пишите в личку.
При чем тут кеширование вашего форума? У нее закешировался АЙПИ вашего сервера где форум работает, в итоге она на него попала не обращаясь к NS серверу фаствпс.. Пропишите у себя в hosts например айпи вашего сервера для домена - и будет тоже самое, для наглядности.
Особенно когда оно не сильно помогает. (
Ну закешились у них айпи, вот и попали.