Перемещение 3 ТБ файлов NTFS с локального файлового сервера на сервер Azure - как лучше всего перенести

Мы перемещаем наш локальный файловый сервер Windows с 2,7 ТБ файлов NTFS на azure (у нас есть подключение vpn сайта к сайту со скоростью 100 Мб / с в azure) Что люди порекомендовали бы лучше всего передавать наши файлы с сохранением разрешений ntfs? Мы можем воссоздать около 20 общих сетевых ресурсов на файловом сервере, но мы не хотим воссоздавать 300+ пользовательских прав доступа к каталогу NTFS. Мы создали сервер azure и настроили репликацию файлов dfs между локальным сервером (сервер Windows 2008R2 с 3 дисками, виртуализированными в vmware), но у нас возникли проблемы с его работой, он работает для небольшого количества файлов, но не работает. все они.
Кто-нибудь использовал службы ez copy или azure export (отправка azure на жесткий диск), может ли любой из этих методов сохранить нетронутыми разрешения ntfs?

2
задан 2 September 2016 в 00:09
2 ответа

Я бы использовал robocopy / mir / copyall / z для сохранения списков ACL.

Также учтите, что robocopy можно использовать для предварительного начальный DFSR для ускорения начальной репликации

3
ответ дан 3 December 2019 в 09:15

С таким большим объемом данных на такой скорости вам, вероятно, лучше всего подойдет sneakernet. У меня нет непосредственного опыта работы со службами экспорта Azure, но я был бы очень удивлен, если бы у них не было способа сохранить метаданные, включая информацию ACL.

3
ответ дан 3 December 2019 в 09:15

Теги

Похожие вопросы