Не могу найти HTML файлы на моем сайте с самописной админкой

1 23
Arsh
На сайте с 21.03.2007
Offline
199
#21
sergv:
И что это даст ТС? )

Возможность нажать Delete в подходящий момент)

O8
На сайте с 10.09.2007
Offline
94
#22
LazyBadger:
Все 11 "ошибок" - откровенно ерунда, и там написано, как лечится большая часть их (если возможность менять шаблон еще осталась) - на примере самой первой



---------- Добавлено 18.06.2019 в 08:38 ----------


Это был (непрозрачный) намек на то, что нанимаете постороннего исполнителя на задачи"понять чужой код, навтыкать костылей, сопровождать далее, очистить от вирусного инжекта установленный сайт". Это может быть 1 или 2 разных человека, ибо специализация несколько разная - программер и безопасник

А если по уму и разумно распорядиться бюджетом - то

* сохранить сайт (любым парсером) полностью - с содержанием ваших страниц и структурой
* сделать его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009

Спасибо. Так и поступлю. Сделаю его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009

Спасибо всем, кто давал советы.

_
На сайте с 24.03.2008
Offline
381
#23
LazyBadger:
Я, пожалуй, буду посылать в этот топик активно топящих за "надо лепить самописы, чтобы было все по фэншую" сектантов

Вы продвигаете говнобитрикс что-ли :) ?

Правда думаете, что это уязвимость в чем-то самописном :) ?

Обладаете хоть какой-то компетенцией... и опытом.

Ну не знаю... хоть что-то умеете кроме того, что называть фигнёй проблемы с тегами html :) ?

В 90+% случаев подобное - результат атаки компьютера жертвы.

Утекает доступ к ftp после чего на него заливают всякую ересь.

И наличие современной тормозной и дырявой cms тут скорее всего не помогло бы :).

И да, я за самопис. Но безусловно самопис не для дебилов. Поэтому многим он противопоказан.

Точно также, как не все могут себе позволить одежду или обувь сделанную по их меркам.

Такие дела. Кто-то может себе позволить, остальные пускают слюни завидуют и бесятся :).

Но жить как-то надо, поэтому лучший вариант - запугивание клиентов по схеме "все делают

так-то, если будешь делать по-другому будет тебе айайай, вот смотри уже кому-то что-то куда-то вкорячили" :)

RT
На сайте с 17.06.2019
Offline
0
#24

Ошибся, думал он не может найти админку среди всех файлов))

O8
На сайте с 10.09.2007
Offline
94
#25
LazyBadger:
Все 11 "ошибок" - откровенно ерунда, и там написано, как лечится большая часть их (если возможность менять шаблон еще осталась) - на примере самой первой



---------- Добавлено 18.06.2019 в 08:38 ----------


Это был (непрозрачный) намек на то, что нанимаете постороннего исполнителя на задачи"понять чужой код, навтыкать костылей, сопровождать далее, очистить от вирусного инжекта установленный сайт". Это может быть 1 или 2 разных человека, ибо специализация несколько разная - программер и безопасник

А если по уму и разумно распорядиться бюджетом - то

* сохранить сайт (любым парсером) полностью - с содержанием ваших страниц и структурой
* сделать его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009

Еще вопрос: А если оставить только нужные страницы - свои, а ересь убрать, то как не получить 404 ответ. Или придется все 3000 спамных страниц загонять в no index?

Посоветуйте, пожалуйста, этот "любой" парсер для 250 страниц, коих содержится на нашем сайте.

Lazy Badger
На сайте с 14.06.2017
Offline
231
#26
olega81:
А если оставить только нужные страницы - свои, а ересь убрать, то как не получить 404 ответ. Или придется все 3000 спамных страниц загонять в no index?

Просто - ничего не делать. Эти "страницы" все получаются из главной добавлением GET-параметра ?zuz= - в интерфейсе таких ссылок нет, появились они за счет того, что кто-то где-то снаружи сделал такие ссылки и они были проиндексированы. Ну будут эти ссылки давать 404, потом вывалятся из индексов (Гугель говорит так), можно еще до кучи заблокировать в robots.txt "*?zuz=*" (вроде так, если что - тут меня поправят) и скормить все левые урлы в "Удаление URL" в Яндесовом Вебмастере (та не более 500 день, да и из индекса вывалятся не сразу, а с ближайшим апдейтом индекса, так что не быстрее, чем с 404)

Не думаю, что гугель эти ссылки где-то как-то для полезного учитывает, но можно их до кучи, пока в индексе, еще и дезавуировать (надо ли - не уверен, а возни - много)

olega81:
Посоветуйте, пожалуйста, этот "любой" парсер для 250 страниц, коих содержится на нашем сайте.

Их 224 (проверял), ну и с парсерами мне подсказать сложно - я старорежимный, мне wget хватает последние дцать лет. Тут кто-то из аудитории может предложить скорее что-то лучше, чем вот такое (не проверял, не смотрел, не знаю)

Да любой красноглазик на КВорке за 500 рублей сделает копию и не будет грузить проблемами

Производство жести методом непрерывного отжига
1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий