Рекомендации по резервному копированию на Amazon s3 и NAS

Я новичок в Cloudberry.

У меня есть сценарий, в котором около 2,5 ТБ данных с локального сервера должны быть скопированы как на NAS в локальной сети, так и на Amazon S3. Эти данные постоянно меняются несколькими пользователями. Каковы были бы лучшие практики для достижения чего-то подобного с помощью облачной версии Windows Server Edition?

Я также хотел бы сохранить некоторую возможность управления версиями для рассматриваемых файлов.

4
задан 31 May 2017 в 22:04
2 ответа

Я предлагаю вам взглянуть на AcloudA , который можно использовать в качестве аппаратного шлюза, который представляет облачное хранилище как локальный DAS на ваш сервер и выгружает данные в облако.

Его можно установить либо на локальном сервере, либо на NAS (это зависит от особенностей используемого оборудования) в качестве жесткого диска SATA / SAS с возможностью подключения к облаку (Amazon или Azure), что позволяет запускать задания резервного копирования, как если бы это происходило на локальном компьютере. хранилище.

4
ответ дан 3 December 2019 в 03:05

Это действительно зависит от размера вашего файла и количества объектов. Хранение GW от AWS обходится вам ежемесячно, и у вас есть хороший вариант кэширования.

CloudBerry Backup имеет резервное копирование на уровне блоков, при котором огромные объекты могут выгружаться на основе инкрементного уровня блоков (в основном изменения переходят в S3), что дает вам еще одну точку восстановления.

Существует также резервное копирование в реальном времени, которое вы можете попробовать.

2
ответ дан 3 December 2019 в 03:05

Теги

Похожие вопросы