У меня был аналогичный вопрос несколько месяцев назад Хорошее программное обеспечение для резервного копирования / архивирования?
Сейчас я использую Norton Ghost, но замечаю, что если я перемещаю большие файлы (более 100 МБ), оно будет сделайте еще одну копию. Съедает gbs как сумасшедший, надо еще кое-что. У вас есть предложения, ребята?
Backuppc мог бы быть Вашим ответом. - http://backuppc.sourceforge.net/
Из документа:
Идентичные файлы
BackupPC объединяет идентичные файлы с помощью hardlinks. ''Идентичными файлами'' мы имеем в виду файлы с идентичным содержанием, не необходимым те же полномочия, владение или время изменения. Два файла могли бы иметь различные полномочия, владение, или время изменения, но будут все еще объединены каждый раз, когда содержание идентично. Это возможно, так как BackupPC хранит метаданные файла (полномочия, владение, и время изменения) отдельно от содержания файла.
При использовании программного обеспечения для резервного копирования, которое использует Хранение единственного экземпляра, такое как Windows Home Server или Danz Retrocspect (теперь Взгляд назад EMC), f не должно иметь значения, что Вы перемещаете свои файлы, или даже копирует их, так как программное обеспечение для резервного копирования определит идентичные файлы и только сохранит одну копию их.
Просто исследовал то же решение, я наткнулся на Acronis Backup , у которого, похоже, есть подключаемый модуль для этого, но еще не было возможности проверить это.
Очевидно, это может вам не подойти, так как включает в себя определенные допущения и компромиссы, но один из возможных способов сделать это:
. Я делаю это, чтобы сохранить низкую полосу пропускания для резервного копирования за пределами сайта - затем я использую rsnapshot на содержимое файла изображения на удаленном сайте, поскольку меня не волнует пропускная способность там.
Для небольших текстовых файлов вы можете использовать git. Не знаю, как это работает с большими файлами (более 100 МБ).
Я знаю, что это устарело, но чрезвычайно актуально, поскольку дублирование сотен ГБ в ТБ ненужных файлов часто проблематично для любого экономного человека.
Я использовал Areca Backup . и, кажется, хорошо отслеживает повторяющиеся файлы. Я недавно переместил 300 ГБ в один прекрасный день, и он сделал резервную копию только 8 ГБ фактических данных, что означает, что он не копировал файлы повторно, а просто ссылался на них
Мое ручное зеркало файлов, версии и удаления увеличились на 350 ГБ (300, указанные выше) за 3 месяца, где ArecaBackup только раздутые 20 ГБ за тот же период времени.
Я ценю возможность резервного копирования файлов таким образом, чтобы вы могли получить доступ к фактическому файлу в дереве каталогов на сервере; то есть файлы могут храниться в дереве каталогов в их исходном формате, а не в собственном формате, чтобы избежать повреждения резервной копии. Хотя обычно вы просматриваете графический интерфейс.
Я не нашел способа удалить файл из архива, поэтому, если есть большой файл, я хочу уйти. удалите его в структуре каталогов, и если кто-то попытается восстановить его по какой-то причине, я уверен, что при восстановлении будет выдана ошибка. Хотя я делаю это только для известных больших временных или повторяющихся файлов, так что это не было проблемой; а именно от пользователей, использующих резервные копии в качестве временного пространства, и рабочие операции в конечном итоге получают резервную копию.
Самая большая опасность заключается в том, что если ваши файлы конфигурации будут повреждены или пропадут, вы не сможете их восстановить; но вы все равно будете иметь свои файлы.
В целом, если вам не нравится блокировка поставщика или проприетарные форматы файлов, это отличное решение.
Я не имею к ним никакого отношения, они просто предоставили что-то, что решает проблему для me!