Ну так нет новостей и вообще лето :)
Эт чего за движок-то такой, где только A-Z и 0-9? 😂
Что, никаких текстов писать в базу не планируете? :)
Не забывайте, что кроме как через GET у Вас ещё через POST, COOKIE, а в ряде случаев и через SESSION может проникнуть всякое )
Фильтровать разумнее непосредственно на входе - то есть перед запросами.
Если Вы хотите как-то систематизировать это, то лучше систематизировать эти самые запросы организовав определенную модель с обработчиками, методы которой уже будут безопасными.
А sport.ru что, лучше? 😂
Это оба говносайтищи из говносайтищ в РСЯ.
Прикольно будет, если яндексоиды прям на семинаре скажут, мол, вы знаете, вы не соответствуете нашей политике 😂
А те их за грудки
- Вы ох***? За что? Скажите за чтоо?!
- Мы не можем сказать.
- Ах вы не можете!
Бум! Бум!
На такой семинар я бы сходил 😂
А нет небольшой заметки о том, как неопытному хирургу понять, что он отрезал не то? 😂
:)
"клиентским ПО" в вебе называются соответствующие приложения выполняющиеся в браузере пользователя. В частности джаваскрипты.
Это будет подключаемый скрипт - так же, как это сейчас работает в рамках DirectStat.
"Ставить" его будет владелец площадки, а "ходить" регулярно будет вместе с пользователями сайтов.
"грязь" и яндекс проверяют площадки извне или со стороны сервера..
ну хоть бы заголовок прочитали что ли 😂
Я же предлагаю использовать именно клиентские возможности.
Попробую по-другому объяснить:
Сейчас на рынке представлены две группы так называемых антивирусов:
1. Сканеры файлов сайта. Предполагается, что можно найти по определенным сигнатурам "вредный" код: разные eval, system которые достаточно редко используются в простых сайтах, но достаточно часто могут быть использованы в шеллах.
Недостатки этого способа очевидны: злоумышленники могут не использовать палевные методы. Кроме того файловый антивирус не поможет если злоумышленник имеет права в системе равные или выше антивируса, что бывает ооочень часто. Сумев залить шелл, сразу же пытаются получить какой-то доступ хотя бы ftp. Тупо зная логин сбрутить пароль от ftp средствами сервера - дело нескольких дней максимум.
И, наконец, цели и задачи создателей таких бесплатных программ весьма сомнительны. Определенная часть их них нацелена ни сколько на защиту ваших сайтов, сколько на их атаку через свой "антивирус".
2. Яндекс, Гугл и им подобные сканеры "извне". Это не антивирусы, а примитивные фильтры работающие по принципу массовых сигнатур по доменам. Собственно могут определять только то, что уже давно в базах всех антивирусов, да и то при условии, что злоумышленники уж совсем палевно и открыто перенаправляют трафик. Главная их задача не допустить "эпидемии" в случаи какого-то, например, массового эксплойта как это было в прошлом году с DLE, когда за сутки были заражены миллионы сайтов.
Таким образом очевидно, что имеющееся на рынке ну никак не защищает практически не от чего.
==================
Я же предлагаю анализировать не файлы и не ответ сервера. Я предлагаю анализировать содержимое прям в браузере пользователя: конечный контент, который видит посетитель сайта.
Главное достоинство этого метода: предельно понятно что искать - внешние скрипты, фреймы, ссылки. Проверять что находится в обработчиках событий и т.д.
Злоумышленник может легко обмануть "файловый антивирус", может сунуть Яндексу липу, но он не сможет слить трафик, поставить ссылки или ещё что-либо сделать вредного так, что бы это не было заметно в конечном документе. Даже перенаправление заголовками можно легко отследить с клиента.
А Вы считаете нужно? :)
Ну значит просто сканируют автоматически. Забейте )
netwind, Вы топиком что ле ошиблись? 😂
Такая идея уже была? Можно ссылочку?
Я не хочу вообще заниматься этим.
Но если кто захочет - я могу проконсультировать, а так же поделиться наработками и базами.
Бесплатно.
Какой, ради Бога, "успех"? Вы совсем что ли? )) Я верю только точным расчётам, полной предоплате и страховке. И даже в таком случаи чаще всего лень 😂
Ну в апаче должен быть включен модуль ssl.
В index.php надо прописать Ваш ключ в $server_key.
Так же понадобится: