admak

Рейтинг
130
Регистрация
19.07.2010

5 винт / 512-1024 рама

G-and-Y:
нужно сделать бекап через панель веста на впв с дебиан 7, без 1 папки, папка с картинками много весит. Как это сделать? Еще есть вариант перенести ее на время бека куданить но как и куда хз.

если лень прописывать --exclude, как советывали выше, то можно переместить папку куда-то в другое место и сделать на нее симлинк.

тогда при бекапе в архив попадет ссылка на папку(симлинк), а не сама папка. в некоторых случаях это удобно.

auStern:
Есть огромное количество сайтов, которые сканят whois-данные и выкладывают всю информацию в открытый доступ.
Есть ли возможность удалить такие данные?

как вариант, пойти от противного: не удалить, а добавить...

самому добавить в разные чекеры свой домен (с скрытым whois). возможно это размоет выдачу и начальные whois не так будут бросаться в глаза или вообще вытеснятся с выдачи.

из бонусов: некоторые чекеры поставят ссылку на вас. :)

Upd: ссылка на подвижки гугла на право быть забытыми...

сама форма

aeromouse:
foxi, у них отправка только через ssl. Скрипт не умеет ssl, доработок под webasyst shop-script 309 под это дело нету...

а зачем отправлять через яндекс? отправляйте почту со своего хостера(сервера) или настройте свой smtp.

outtime:
Если эти много резко пришедших людей наставят много внешних ссылок, поисковики не воспримут произошедшее как ссылочный взрыв и накрутку?

я бы под шумок(наплыв посетителей) сам бы наставил ссылок. они как раз разбавятся "настоящими", если таковые будут.

webplus:
а как биржа узнает что у меня для гугла убраны ссылки?

по кешу в гугле(яндексе), тут и напрягаться особо не нужно.

magazzz:
Они разбиты на 123456789abcdef папки
Кешируемые запросы.
Т.е. сделать как то, что бы каждая папка еще делилась на подпапки
И это снизит нагрузку?

да

например в nginx делают такую структуру папок.

по этому же принципу делал на пхп: имя временного файла - md5() от нужных параметров (урла и/или ключей), структура папок - последние символы от md5.

структура такая:

cache/2/45/1111111234 (имя файла - условное, в md5 цифр/букв больше)

или

cache/23/45/1111112345

cache/23/456/1111123456

и т.д. подберите оптимальный вариант для себя. думаю три уровня вам не понадобится...

cache/23/45/67/111111234567

как вариант: подумать над сохранением файлов во много папок, по 1-2 тыс файлов в одну папку. это значительно ускорит файловые операции.

если разбор "по горячему", то tcpdump-ом пытаемся найти аномалии. если нашли, то логируем нужные пакеты tcpdump-ом в файл, смотрим, разбираем, снова ищем.

тупо, банально, но за несколько итераций источник аномалии находится.

если мониторинг, то логируем и/или отсекаем "подозрительные" запросы к nginx/апачу

для мониторинга исходящего трафика можно попытаться прикрутить какую-то IDS/IPS например snort (очень давно ее использовал, так что ничего не могу сказать о ее работе сейчас), только все правила и фильтры нужно будет писать самому, а не использовать готовые, т.к. IDS-ы заточены под другие цели.

готовых решений нет.

netwind:
А если заметного трафика и претензий - вам это не нужно.

угу, тоже ориентируюсь на обычно-суточный трафик.

с таким ходом мысли

saykel:

$sth = $dbh->prepare("select url from t ORDER BY RAND() LIMIT 0,1");

точно не грозит

speed-core:
держать порядка 5 000 запросов в СЕКУНДУ! нет проблем. И это не предел.

ps: использовать sql в качестве рандом-генератора - это круто :)

Всего: 1235