RiDDi

RiDDi
Рейтинг
285
Регистрация
06.06.2010
Интересы
C++ / C#; MFS / .NET Framework / Win32 API / STL; JAVA; PHP / Zend / Kohana / Yii / Smarty; MS SQL / PostgreSQL / MySQL / NoSQL; JavaScript / Jquery / Ajax; Flash / Flex / AIR
Misha0o:
Из группы ВК можно удаляться, забили? Удобно было бы там новости важные чекать =)

Ну так нет новостей и вообще лето :)

Эт чего за движок-то такой, где только A-Z и 0-9? 😂

Что, никаких текстов писать в базу не планируете? :)

Не забывайте, что кроме как через GET у Вас ещё через POST, COOKIE, а в ряде случаев и через SESSION может проникнуть всякое )

Фильтровать разумнее непосредственно на входе - то есть перед запросами.

Если Вы хотите как-то систематизировать это, то лучше систематизировать эти самые запросы организовав определенную модель с обработчиками, методы которой уже будут безопасными.

XTR:
Этот какпросто.ру - АДЪ просто!

А sport.ru что, лучше? 😂

Это оба говносайтищи из говносайтищ в РСЯ.

Прикольно будет, если яндексоиды прям на семинаре скажут, мол, вы знаете, вы не соответствуете нашей политике 😂

А те их за грудки

- Вы ох***? За что? Скажите за чтоо?!

- Мы не можем сказать.

- Ах вы не можете!

Бум! Бум!

На такой семинар я бы сходил 😂

gregzem:
Небольшая заметка о том, как неопытному вебмастеру понять, что его сайт взломали.

А нет небольшой заметки о том, как неопытному хирургу понять, что он отрезал не то? 😂

netwind:
RiDDi, а кто будет это клиентское ПО ставить и регулярно ходить по каждому сайту ?
да ну - лажа.

:)

"клиентским ПО" в вебе называются соответствующие приложения выполняющиеся в браузере пользователя. В частности джаваскрипты.

Это будет подключаемый скрипт - так же, как это сейчас работает в рамках DirectStat.

"Ставить" его будет владелец площадки, а "ходить" регулярно будет вместе с пользователями сайтов.

netwind:
RiDDi, да как грязи "идей" этих
/ru/forum/840939
/ru/forum/842201

ну и, собственно, как "инвестор" собирается конкурировать с webmaster.yandex.ru, который тоже проверяет сайты по базе?
Причем, технические возможности по скорости сканирования у них куда больше.

"грязь" и яндекс проверяют площадки извне или со стороны сервера..

ну хоть бы заголовок прочитали что ли 😂

Я же предлагаю использовать именно клиентские возможности.

Попробую по-другому объяснить:

Сейчас на рынке представлены две группы так называемых антивирусов:

1. Сканеры файлов сайта. Предполагается, что можно найти по определенным сигнатурам "вредный" код: разные eval, system которые достаточно редко используются в простых сайтах, но достаточно часто могут быть использованы в шеллах.

Недостатки этого способа очевидны: злоумышленники могут не использовать палевные методы. Кроме того файловый антивирус не поможет если злоумышленник имеет права в системе равные или выше антивируса, что бывает ооочень часто. Сумев залить шелл, сразу же пытаются получить какой-то доступ хотя бы ftp. Тупо зная логин сбрутить пароль от ftp средствами сервера - дело нескольких дней максимум.

И, наконец, цели и задачи создателей таких бесплатных программ весьма сомнительны. Определенная часть их них нацелена ни сколько на защиту ваших сайтов, сколько на их атаку через свой "антивирус".

2. Яндекс, Гугл и им подобные сканеры "извне". Это не антивирусы, а примитивные фильтры работающие по принципу массовых сигнатур по доменам. Собственно могут определять только то, что уже давно в базах всех антивирусов, да и то при условии, что злоумышленники уж совсем палевно и открыто перенаправляют трафик. Главная их задача не допустить "эпидемии" в случаи какого-то, например, массового эксплойта как это было в прошлом году с DLE, когда за сутки были заражены миллионы сайтов.

Таким образом очевидно, что имеющееся на рынке ну никак не защищает практически не от чего.

==================

Я же предлагаю анализировать не файлы и не ответ сервера. Я предлагаю анализировать содержимое прям в браузере пользователя: конечный контент, который видит посетитель сайта.

Главное достоинство этого метода: предельно понятно что искать - внешние скрипты, фреймы, ссылки. Проверять что находится в обработчиках событий и т.д.

Злоумышленник может легко обмануть "файловый антивирус", может сунуть Яндексу липу, но он не сможет слить трафик, поставить ссылки или ещё что-либо сделать вредного так, что бы это не было заметно в конечном документе. Даже перенаправление заголовками можно легко отследить с клиента.

Hallboy222:
А будет ли возможность автодобавление дешевых рекламодателей у площадки в список заблокированных доменов? То есть, к примеру, всех у кого клик менее 50 копеек, автоматически в список заблокированных.

А Вы считаете нужно? :)

luka29:
Спасибо! Ни в админке, ни на хостинге я такого компонента не нашла. Хотела его совсем удалить, т.к. такой компонент мне не нужен

Ну значит просто сканируют автоматически. Забейте )

netwind, Вы топиком что ле ошиблись? 😂

netwind:
По-моему пятый или шестой по счету в этом разделе. Что-то не особо всплывают.

Такая идея уже была? Можно ссылочку?

netwind:

Если сами верите в успех - продавайте квартиру и машину. Должно хватить.
А если еще не продали, значит сами не верите в успех.

Я не хочу вообще заниматься этим.

Но если кто захочет - я могу проконсультировать, а так же поделиться наработками и базами.

Бесплатно.

Какой, ради Бога, "успех"? Вы совсем что ли? )) Я верю только точным расчётам, полной предоплате и страховке. И даже в таком случаи чаще всего лень 😂

Ну в апаче должен быть включен модуль ssl.

В index.php надо прописать Ваш ключ в $server_key.

Так же понадобится:

Всего: 2950