admak

Рейтинг
130
Регистрация
19.07.2010

Дополню, из слабеньких(домашних) NAS-ов можно посмотреть линейку от WD: My Cloud, My Cloud EX2, My Cloud EX4

У меня предыдущая модель из этой серии My Book Live работает уже 3-4 года.

Если нужно чуть мощнее, то можно посмотреть MicroServer от HP - компактный, корзина на 4 диска + еще один диск, памяти можно в него напихать: 4-8-16 гиг в зависимости от модели.

DenisVS:
Для скачивания браузером кладу по SSH файл в директорию веб сервера.
Последнее совсем топорно, но так и пользую, хватает.

Тоже долгое время таким образом делал, пока не достало.. 😂

В итоге сделал отдельный безпарольный ключик для ssh, создал две директории:

share/in

share/out

И шелл скриптик в две строчки:

1. rsync+ssh локальный/out => серверный/in

2. rsync+ssh серверный/out => локальный/in

Рекомендую, для работы с кучей мелких файлов разбросанных по разным папкам - одно удовольствие.

Добавил/отредактировал/удалил - шелл скрипт запустил, готово. :)

Выше было про бекапы - так rsync наше все.

Еще удобно поднимать на таком сервере свой GIT репозиторий - смотрите gitolite. В нем есть и вебморда (я не использую). Кроме кода в нем можно хранить и свои заметки или доки.

Если тазик стоит дома, то научите его еще торенты таскать (есть удаленная консоль управления) и на телек фильмы показывать.

Можно заменить <br clear="all" /> на <div style='clear:both'></div>, еще правильнее использовать класс и clear:both прописывать уже в css.

Еще два лишних закрывающих див-а есть у вас.

А нужны ли там все 8 винчестеров? просто чтобы воздух грели и электричество ели...

Я бы 2-4 винта вытащил бы оттуда. Пусть лежат на столе, да и подмена будет если кто из рейда выпадет. (ведь винты не первой свежести)

borisd:
Задача ведь не в полной защите от парсинга, а в экономической нецелесообразности. Да не разового копирования, а регулярного. Плюс временной лаг между обновлением контента на моем сайте и сайтах конкурентов - чем больше, тем лучше.

Из опыта: нанимать программиста на каждый чих они не будут, удовлетворятся старыми данными.

Вот Вы сами себе и ответили. Можно периодически менять шаблон вывода данных. Раз в месяц будет достаточно, можно реже.

Програмер спарсит, сдаст работу, получит деньги, уйдет. Через месяц - по новой.

Думаю конкурента хватит не больше чем на 3-4 итерации и он пойдет искать другой источник данных или забьет.

Шаблон - да, хорошо бы переделать...

Но письмо по другому поводу, у Вас некоторые яваскрипты подтягиваются из каталогов, которые запрещены в robots.txt (wp-includes, wp-admin).

Умом гугелю не понять..., поэтому я проигнорировал подобные письма.

lhoster:
Задача - хранить бекапы
Решение - удаленное хранилище (ftp)

Бекапы - как минимум rsync, (webdav).

ТС, топик у Пинов гляньте, под ваш бюджет Вы можете взять две железки: 4 рама/0,5Т диск - как раз и получится итого: 8 рама и 1Т за 3тыс руб. :)

А вообще - разрешите хостерам давать предложения, возможно получите "эсклюзив".

Вроде мыши Ceph использовали. Все померло, включая все бекапы.

borisd:
некоторые люди wget-ом или подобными утилитами мой сайт скачивают, чтобы потом локально на своем компе работать. Их затрагивать я не хочу. Я лишь ограничил их скоростью скачки - не более 5-ти страниц в секунду.

Ставьте правильно постановку задачи... :) Одного потока wget-а вполне достаточно для парсинга всего сайта.

Ограничить количество страниц в секунду можно limit_req. Только не забудьте, что лимины нужно устанавливать только на страницы, т.е. картинки, графику, скрипты, цсс-ы нужно отдавать без лимитов.

Всего: 1235