Мы перемещаем наш локальный файловый сервер Windows с 2,7 ТБ файлов NTFS на azure (у нас есть подключение vpn сайта к сайту со скоростью 100 Мб / с в azure)
Что люди порекомендовали бы лучше всего передавать наши файлы с сохранением разрешений ntfs?
Мы можем воссоздать около 20 общих сетевых ресурсов на файловом сервере, но мы не хотим воссоздавать 300+ пользовательских прав доступа к каталогу NTFS.
Мы создали сервер azure и настроили репликацию файлов dfs между локальным сервером (сервер Windows 2008R2 с 3 дисками, виртуализированными в vmware), но у нас возникли проблемы с его работой, он работает для небольшого количества файлов, но не работает. все они.
Кто-нибудь использовал службы ez copy или azure export (отправка azure на жесткий диск), может ли любой из этих методов сохранить нетронутыми разрешения ntfs?
Я бы использовал robocopy / mir / copyall / z
для сохранения списков ACL.
Также учтите, что robocopy
можно использовать для предварительного начальный DFSR для ускорения начальной репликации
С таким большим объемом данных на такой скорости вам, вероятно, лучше всего подойдет sneakernet. У меня нет непосредственного опыта работы со службами экспорта Azure, но я был бы очень удивлен, если бы у них не было способа сохранить метаданные, включая информацию ACL.