Я новичок в Cloudberry.
У меня есть сценарий, в котором около 2,5 ТБ данных с локального сервера должны быть скопированы как на NAS в локальной сети, так и на Amazon S3. Эти данные постоянно меняются несколькими пользователями. Каковы были бы лучшие практики для достижения чего-то подобного с помощью облачной версии Windows Server Edition?
Я также хотел бы сохранить некоторую возможность управления версиями для рассматриваемых файлов.
Я предлагаю вам взглянуть на AcloudA , который можно использовать в качестве аппаратного шлюза, который представляет облачное хранилище как локальный DAS на ваш сервер и выгружает данные в облако.
Его можно установить либо на локальном сервере, либо на NAS (это зависит от особенностей используемого оборудования) в качестве жесткого диска SATA / SAS с возможностью подключения к облаку (Amazon или Azure), что позволяет запускать задания резервного копирования, как если бы это происходило на локальном компьютере. хранилище.
Это действительно зависит от размера вашего файла и количества объектов. Хранение GW от AWS обходится вам ежемесячно, и у вас есть хороший вариант кэширования.
CloudBerry Backup имеет резервное копирование на уровне блоков, при котором огромные объекты могут выгружаться на основе инкрементного уровня блоков (в основном изменения переходят в S3), что дает вам еще одну точку восстановления.
Существует также резервное копирование в реальном времени, которое вы можете попробовать.