~50tb устройства хранения данных в Azure представил как единственный Windows File Share

Я погуглил, самой близкой вещью, которую я нашел до сих пор, является другой вопрос о SF здесь: ограничения устройства хранения данных Azure

Цель:

Переместите приблизительно 50 ТБ устройства хранения данных к облаку, представьте то устройство хранения данных как стандартный Windows File Share и имейте, это относительно легко расширилось, в то время как это продолжает расти.

Проблема:

Кажется, что единственный VHD может только составить 1 ТБ в размере, который бесполезен, очевидно.

Я не предполагаю никого здесь hasa решение, которое они могли предложить?

Спасибо за чтение,

Xavier.

2
задан 7 January 2015 в 12:27
3 ответа

Попробуйте исследовать пространства имен Microsoft DFS и начать сегрегацию данных в Azure - я выполнил аналогичный проект. Где, добавив небольшой отдельный VHD, затем смонтируйте дополнительные VHD емкостью 1 ТБ в качестве точек монтирования под первым диском, например,

100GB Mount disk as D:

Затем Nth VHD емкостью 1 ТБ смонтируется под D:\Disk1 .... D:\Disk50, затем с помощью пространств имен DFS вы можете поделиться данными, например, \DOMAIN\SHARES\Finance будет карта \NEWFILESERVER\DISK43$\Finance и т.д.

Не самый идеальный, но будет работать в текущих технических рамках Azure.

Надеюсь, я объяснил достаточно, чтобы вы могли начать - не стесняйтесь обращаться за помощью, если вам понадобится помощь.

Удачи с загрузкой 50 ТБ, возможно, стоит подумать, если хранение этих данных в Azure будет более рентабельным, чем хранение в офисах, но с увеличением WAN/Интернета. Это говорит о том, что тогда вам не придется беспокоиться о новом оборудовании и т.д.. Вышеуказанное решение довольно хорошо масштабируется, как мне кажется

.
1
ответ дан 3 December 2019 в 12:49

Служба хранения файлов Azure File Storage позволяет создавать общие файлы объемом до 5 ТБ, при этом каждый файл имеет объем до 1 ТБ. Это, по сути, том SMB, с базовым API REST. Вы можете получить доступ к этому ресурсу как с ресурсов Azure, так и с местных ресурсов.

Поскольку вы имеете дело с 50 ТБ, вам нужно будет создать несколько томов Файловой службы. Azure Storage поддерживает до 500 ТБ на одну учетную запись хранилища, но не в виде одного файлового ресурса. Вы можете загружать файлы в дискретные блоки, позволяя вам иметь доступ к полным 500 ТБ, но это не обеспечит SMB-интерфейс; вместо этого вам придется полагаться на любой из sdk по вашему выбору (. net, java, python, node, ruby, php), или прямые REST вызовы для работы с этими дискретными объектами.

Что касается перемещения контента в облако, вы можете сделать это либо с помощью собственного приложения (когда-то подключенного к файловому ресурсу), либо с помощью такого инструмента, как AzCopy, который теперь поддерживает файловую службу в качестве источника/назначения. Смотрите эту статью , в которой упоминается AzCopy и как его можно использовать для перемещения в файловую службу.

.
0
ответ дан 3 December 2019 в 12:49

Azure File Service может быть вам полезна. Также как и в примечаниях HBrujn выше, 1 ТБ - это намного больше 50 ГБ, которые вы ищете.

.
0
ответ дан 3 December 2019 в 12:49

Теги

Похожие вопросы