Для чего-либо серьезного необходимо пойти корпоративный класс SSD как FusionIO и механизм, который продает STEC. У них есть данные по тому, когда выполнить обслуживание (ОБРЕЗКА и т.д.) и оказать поддержку в случае, если что-то идет не так, как надо. Я даже видел STEC SSD, дергавшие HBAs. Мое предположение - то, что настоящая проблема здесь состоит в том, что большинство поставщиков выставляет SSD не как флэш-память, но как блочное устройство, и микропрограммы контроллера там действительно не знают, как обработать диски и их интерфейс микропрограммы диска. Только опыт скажет. Обычная вещь о резервных копиях и RAID также относится к SSD.
Но так как Вы используете MyISAM в качестве надежности бэкенда устройства хранения данных, и непротиворечивость не могла бы быть Вашей первоочередной задачей, поэтому просто покупают их и видят то, что происходит.
Что ж, я думаю, вы могли бы запустить Ceph на хосте, и через него клиент мог монтировать вещи, поскольку ceph использует btrfs для файловой системы на хосте хост, его можно заставить работать.
Но вас действительно волнует, я имею в виду, сколько всего материала используется ОС и программами, гигабайт или пять?
И да, хотя Ceph является кластерной файловой системой, вы можете запускать его на одном хосте.
@ignis верен. Нет, вы не можете использовать подобтому btrfs snapshot хоста в гостевой системе. btrfs объединяет файловую систему и уровни блоков. Подобом не является блочным устройством; это файловая система.
В мире LVM вы делаете снимки блочных устройств, и эти снимки также являются блочными устройствами. Такую оснастку можно было бы использовать в качестве корневого устройства для гостя (если оснастка не смонтирована на хосте).
Вы можете смонтировать вложенный том оснастки на хосте, экспортировать его через NFS и загрузить гостя корень NFS, но это было бы неудобно.
В зависимости от вашего сценария использования я рекомендую изучить контейнеры Linux (LXC) (и Docker). LXC обеспечит изоляцию и повторное использование идентичных файлов, которые вы ищете.