Я погуглил, самой близкой вещью, которую я нашел до сих пор, является другой вопрос о SF здесь: ограничения устройства хранения данных Azure
Цель:
Переместите приблизительно 50 ТБ устройства хранения данных к облаку, представьте то устройство хранения данных как стандартный Windows File Share и имейте, это относительно легко расширилось, в то время как это продолжает расти.
Проблема:
Кажется, что единственный VHD может только составить 1 ТБ в размере, который бесполезен, очевидно.
Я не предполагаю никого здесь hasa решение, которое они могли предложить?
Спасибо за чтение,
Xavier.
Попробуйте исследовать пространства имен Microsoft DFS и начать сегрегацию данных в Azure - я выполнил аналогичный проект. Где, добавив небольшой отдельный VHD, затем смонтируйте дополнительные VHD емкостью 1 ТБ в качестве точек монтирования под первым диском, например,
100GB Mount disk as D:
Затем Nth VHD емкостью 1 ТБ смонтируется под D:\Disk1 .... D:\Disk50, затем с помощью пространств имен DFS вы можете поделиться данными, например, \DOMAIN\SHARES\Finance будет карта \NEWFILESERVER\DISK43$\Finance и т.д.
Не самый идеальный, но будет работать в текущих технических рамках Azure.
Надеюсь, я объяснил достаточно, чтобы вы могли начать - не стесняйтесь обращаться за помощью, если вам понадобится помощь.
Удачи с загрузкой 50 ТБ, возможно, стоит подумать, если хранение этих данных в Azure будет более рентабельным, чем хранение в офисах, но с увеличением WAN/Интернета. Это говорит о том, что тогда вам не придется беспокоиться о новом оборудовании и т.д.. Вышеуказанное решение довольно хорошо масштабируется, как мне кажется
.Служба хранения файлов Azure File Storage позволяет создавать общие файлы объемом до 5 ТБ, при этом каждый файл имеет объем до 1 ТБ. Это, по сути, том SMB, с базовым API REST. Вы можете получить доступ к этому ресурсу как с ресурсов Azure, так и с местных ресурсов.
Поскольку вы имеете дело с 50 ТБ, вам нужно будет создать несколько томов Файловой службы. Azure Storage поддерживает до 500 ТБ на одну учетную запись хранилища, но не в виде одного файлового ресурса. Вы можете загружать файлы в дискретные блоки, позволяя вам иметь доступ к полным 500 ТБ, но это не обеспечит SMB-интерфейс; вместо этого вам придется полагаться на любой из sdk по вашему выбору (. net, java, python, node, ruby, php), или прямые REST вызовы для работы с этими дискретными объектами.
Что касается перемещения контента в облако, вы можете сделать это либо с помощью собственного приложения (когда-то подключенного к файловому ресурсу), либо с помощью такого инструмента, как AzCopy, который теперь поддерживает файловую службу в качестве источника/назначения. Смотрите эту статью , в которой упоминается AzCopy и как его можно использовать для перемещения в файловую службу.
.Azure File Service может быть вам полезна. Также как и в примечаниях HBrujn выше, 1 ТБ - это намного больше 50 ГБ, которые вы ищете.
.