Возможно, NFS, но с Cachefs на серверах приложений выполнит Вашу часть Вашей цели. Насколько я понимаю все записанное все еще пойдет центральный сервер, но по крайней мере читает, мог закончить тем, что кэшировался локально. Это могло потенциально снять много задержки чтений в зависимости от Ваших шаблонов использования.
Кроме того, mabye UnionFS стоит изучить. С этим я думаю, что каждое местоположение было бы экспортом NFS, и затем Вы могли использовать UnionFS в каждом местоположении, чтобы иметь это и все другие, NFS монтируется от местоположения, появляются как одна файловая система. У меня нет опыта с этим все же.
Я внес изменения в схемы таблиц, содержащих более 100 миллионов строк, с использованием метода триггера, и он работает очень хорошо.
Добавить триггер в старую таблицу, чтобы скопировать вставленные данные в новую таблицу. Это будет выглядеть примерно так:
DELIMITER |
СОЗДАТЬ ТРИГГЕР original_to_new ПОСЛЕ ВСТАВКИ В исходную_таблицу
ДЛЯ КАЖДОГО РЯДА НАЧАЛА
INSERT INTO new_table SET col1 = NEW.col1, col2 = NEW.col2 ...
КОНЕЦ;
|
DELIMITER;
Обратите внимание на первый идентификатор автоинкремента, перемещенный в новую таблицу с триггером.
ПЕРЕИМЕНОВАТЬ исходную_таблицу в исходную_таблицу_бэкап, новую_таблицу в исходную_таблицу
Ребята из Continuent включают эту способность в свой продукт Tungsten Enterprise. Например, см .: https://s3.amazonaws.com/releases.continuent.com/doc/tungsten-1.3.3/html/Tungsten-Concepts-And-Administration-Guide/content/ch03s19.html