Сервер NFS с нехваткой памяти

У меня есть несколько машин, использующих общий домашний каталог через общий ресурс NFS, используемый 6-10 пользователей. Все машины используются для проведения вычислительных экспериментов, в том числе тот, у которого есть сервер NFS. Хотя это очень редко, но возможно, что некоторые Эксперимент может вызвать проблему нехватки памяти (OOM). Хотя пользовательский процесс может получить убит в какой-то момент, хотелось бы знать, как это может повлиять на NFS сервер, таким образом, в свою очередь, влияет и на другие машины. Я пробовал искать это но не смог найти конкретного ответа. Могу ли я принять какие-то меры? чтобы избежать влияния OOM на общий ресурс NFS?

Конфигурация сервера NFS: Intel Core i7-9700, 32 ГБ оперативной памяти, 32 ГБ SWAP и графика TITAN RTX Другие машины имеют аналогичные конфигурации.

2
задан 12 July 2020 в 08:49
2 ответа

Я бы ограничил память процесса ulimit или cgroups . Вам нужно ограничить RSS и общую память. Другой подход - запустить его в контейнере или виртуальной машине.

Вероятно, самый простой подход - использовать контейнер : docker, podman, LXC ...

8
ответ дан 4 January 2021 в 07:53

По умолчанию когда Linux исчерпывает память, он использует эвристику , чтобы решить, какие процессы нужно остановить, чтобы восстановить достаточно памяти для продолжения. Однако часто это нежелательно. Во многих случаях (включая, вероятно, этот) было бы лучше остановить процесс, который вызвал состояние нехватки памяти.

Вы можете установить sysctl vm.oom_kill_allocating_task , чтобы заставить убийцу OOM убить объект процесс, из-за которого системе не хватило памяти.

5
ответ дан 4 January 2021 в 07:53

Теги

Похожие вопросы