Linux высокое Использование оперативной памяти по неизвестной причине

после поиска вокруг этого и только нахождения сообщений людей, которые не интерпретируют "кэшируемое" число правильно, я решил задать этот вопрос.

У меня есть некоторые серверы под рукой, которые действуют странно. А именно, их Использование оперативной памяти очень высоко без видимой причины. Кажется, как будто невидимый процесс имеет много "используемой" RAM (и я имею в виду "используемый").

Вот некоторая информация:

  • все серверы выполняют SLES 11
  • ядро 3.0.76
  • все серверы, выполненные как гости под инфраструктурой ESX VMware
  • Я не настроил серверы и имел право голоса в выборе ОС, и при этом у меня нет доступа к инфраструктуре виртуализации
  • все серверы настраиваются так же, и они действительно выполняют тот же набор программного обеспечения (это - кластер и да, я знаю, виртуализированный кластер, yada yada, как сказано: Я имел, и имейте право голоса в этом),

И некоторая оболочка произвела:

root@good-server:# free -m
             total       used       free     shared    buffers     cached
Mem:         15953      14780       1173          0        737       8982
-/+ buffers/cache:       5059      10894
Swap:        31731          0      31731

root@good-server:# python ps_mem.py
[... all processes neatly listed ...]
---------------------------------
                          4.7 GiB
=================================

root@bad-server:# free -m
             total       used       free     shared    buffers     cached
Mem:         15953      15830        123          0        124       1335
-/+ buffers/cache:      14370       1583
Swap:        31731         15      31716

root@bad-server:# python ps_mem.py
[... all processes neatly listed ...]
---------------------------------
                          4.0 GiB
=================================

Содержание/proc/meminfo хорошего сервера

MemTotal:       16336860 kB
MemFree:          112356 kB
Buffers:          138384 kB
Cached:          1145208 kB
SwapCached:         1244 kB
Active:          4344336 kB
Inactive:        1028744 kB
Active(anon):    3706796 kB
Inactive(anon):   382724 kB
Active(file):     637540 kB
Inactive(file):   646020 kB
Unevictable:           0 kB
Mlocked:               0 kB
SwapTotal:      32493560 kB
SwapFree:       32477728 kB
Dirty:              1248 kB
Writeback:             0 kB
AnonPages:       4087776 kB
Mapped:            60132 kB
Shmem:               156 kB
Slab:             274968 kB
SReclaimable:     225864 kB
SUnreclaim:        49104 kB
KernelStack:        4352 kB
PageTables:        16400 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:    40661988 kB
Committed_AS:    6576912 kB
VmallocTotal:   34359738367 kB
VmallocUsed:      311400 kB
VmallocChunk:   34359418748 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
DirectMap4k:       73728 kB
DirectMap2M:    16703488 kB

Содержание/proc/meminfo плохого сервера

MemTotal:       16336860 kB
MemFree:         1182320 kB
Buffers:          756244 kB
Cached:          8695688 kB
SwapCached:            0 kB
Active:         13499680 kB
Inactive:         843208 kB
Active(anon):    4853460 kB
Inactive(anon):    37372 kB
Active(file):    8646220 kB
Inactive(file):   805836 kB
Unevictable:           0 kB
Mlocked:               0 kB
SwapTotal:      32493560 kB
SwapFree:       32493560 kB
Dirty:              1268 kB
Writeback:             0 kB
AnonPages:       4890180 kB
Mapped:            84672 kB
Shmem:               252 kB
Slab:             586084 kB
SReclaimable:     503716 kB
SUnreclaim:        82368 kB
KernelStack:        5176 kB
PageTables:        19684 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:    40661988 kB
Committed_AS:    6794180 kB
VmallocTotal:   34359738367 kB
VmallocUsed:      311400 kB
VmallocChunk:   34359419468 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
DirectMap4k:      112640 kB
DirectMap2M:    16664576 kB

TL; DR - при сравнении их бок о бок вот является основными отличиями (BADserver - GOODserver):

MemFree       -1070 MB
Cached        -7550 MB
Active        -9155 MB
Active(anon)  -1147 MB
Active(file)  -8009 MB
AnonPages     - 802 MB

Другие различия являются довольно небольшими, и в определенных рамках можно было бы ожидать (но Вы видите для себя),

Как Вы видите на хорошем сервере, общее количество всего RES и память SHR всех процессов в значительной степени в соответствии с free -mвывод для "используемого - / + буферизует/кэширует" значение - который является тем, что Вы ожидали бы, правильно?

Теперь посмотрите на плохой сервер: free -mвывод для "используемого - / + буферы/кэш" значение приблизительно в 3 раза более высоки, чем Вы могли бы ожидать, подводя итог всего ps может показать Вам.

Это также соответствует что /proc/meminfo говорит мне.

До сих пор я понятия не имею, как это даже возможно. Что могло бы продолжаться здесь?

9
задан 18 February 2015 в 15:34
1 ответ

Я думаю, у вас может быть проблема раздува памяти VMware . Есть вероятность, что чрезмерное использование памяти в инфраструктуре vSphere слишком велико. Вы не сможете исправить это без доступа к vSphere vCenter, но вы сможете обнаружить это на своих виртуальных машинах, при условии, что vmtools установлены:

Не могли бы вы опубликовать вывод vmware- toolbox-cmd stat баллон ?

Кроме того, вам было выделено 16 ГБ ОЗУ. Спросите, кто контролирует инфраструктуру, есть ли какие-либо ручные ограничения RAM на рассматриваемые виртуальные машины.

12
ответ дан 2 December 2019 в 22:30

Теги

Похожие вопросы