asteroid

Рейтинг
134
Регистрация
04.11.2007

foxi, сам никогда не пользовался ими. Вы натолкнули на другую мысль.

Может знающие люди подскажут, ниже команд достаточно, чтобы проверить отсутствие авторизаций по SSH?

# find / -name "*id_rsa*"

- пустой ответ

# find / -name "*authorized_keys*"

- возвращает 1 файл мануала

Немного добавлю.


Проблема связана с работой появившейся в OpenSSH 5.4 недокументированной функции роуминга, предназначенной для возобновления оборванного SSH-соединения. Серверная реализация роуминга так и не была включена в состав OpenSSH, но код клиента был добавлен в экспериментальном режиме и был включен по умолчанию. Уязвимости подвержены все версии с OpenSSH 5.4 по 7.1, включительно.

У меня фольга на шапочке зашевелилась.

з.ы. Крупным сайтам и простым пользователям настоятельно рекомендуют сгенерировать новые SSH-ключи.

ТС вводит в заблуждение. Это не TeamSpeak дырявый, а руки кривые, нажимающие на всё что нажимается.

При заходе на сервер админ TeamSpeak сервера может настроить приветствие как всплывающее окно с сообщением в чат. Понятно, что текст любой можно подсунуть. По аналогии, это как зайти на файлопомойку и жмякать по всплывающим окнам.

foxi:
🤪 так и знал, что эту причину приведут первой, и скорее всего единственной.
...

Есть известный баг с двойным запросом, из-за которого лучше не заморачиваться и использовать PDO. На мелких таблицах незаметно, а вот на гигабайтных очень.

По своему опыту добавлю, что update, insert, singleQuery быстрее на чистом SQLite3 классе. Если fetch, fetchAll - лучше через PDO.


$("[id ^= 'select']").click(function() {
var n = $(this).attr('id').match(/\d+/)[ 0 ];
$("#div" + n).text($("#select" + n + " option:selected").text());
});

kxk, благодарю за Азию.

В моём случае, был именно китаец по whois.ком, недавно "купивший" германское IP по awstats.

zzzit, благодарю за идею. Про nginx я как то упустил.

Да и поиск по этим словам начал выдавать разумные решения.

eN_Slon:
Если контента мало - скачают под разными проксями и т.п.
А вот если много - можно отсеивать айпи парсеров после нескольких запросов. Активно. Агрессивно. Тогда проксей не наберутся.

15к страниц + 2к картинок скачали за 3 часа с одного IP и не парились.

Пусть скачивают. Я не против. Но, хотелось бы не по "перезарядке", а с интервалом в несколько секунд. А то уж больно нагло получается.

Можно и забанить, но следить за этим и прописывать руками не хочется.

---------- Добавлено 15.10.2015 в 14:33 ----------

Сережка:
Я ставил после некоторого числа открытий страниц в минуту по IP, просто выдавал страницу "Слишком много запросов", если в течении часа перевалили некоторую границу посещений с IP, блокировка, которая снималась нажатием на кнопку или через сутки опять открывал доступ. Вроде меньше парсили. Так что пробуйте.

Это алгоритм, а какими средствами пользовались для достижения? Скрипт? В БД IP с счётчиком?

По логам, думается, проще всего определить такие запросы.

Miracle:
даже если бы было поле айди, не понимаю как оно может помочь.

Очень помог бы.

DELETE FROM table WHERE user_id1=1 AND id NOT IN (

SELECT id FROM table WHERE user_id1=1

ORDER BY новые вверху

LIMIT сколько оставить

)

---------- Добавлено 29.08.2015 в 12:08 ----------

Если БД поддерживает ROWID, то можно через него и без айди

Никого не хотел "задеть". Ушёл каяться.

Всем удачи!

Всего: 109