каждый раз, когда я использую комнату или CP на большей файловой структуре, диск i/o подходит к вершине, но не с вниманием на CP или комнату, это - синхронизация набега программного обеспечения. Мое знание в этой области ограничено. Темы, которые я нашел, были о нахождении источника его и ничего далее. Поскольку я уже знаю это здесь вопрос.
.
md2 смонтирован с nobarrier
Диски: HGST HUS724020ALA640
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdb2[1] sda2[0]
523968 blocks super 1.2 [2/2] [UU]
md2 : active raid1 sdb3[1] sda3[0]
1936077760 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sdb1[1] sda1[0]
16768896 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Я считаю это нормальным поведением.
Поскольку вашему процессу rm
не требуется много времени для перебора структуры каталогов и удаления файлов, для нижележащих дисков это вызывает большую нагрузку. Это создает iowait и приводит к этой ситуации.
Судя по вашему снимку экрана, я предполагаю, что запись 37 МБ / с в большой структуре каталогов (что означает много операций ввода-вывода в секунду) вполне справедлива для массива из двух вращающихся дисков. Пока ваши значения пропускной способности для линейной записи и iops в порядке, с моей точки зрения, беспокоиться не о чем.
О нетривиальной задаче ограничения io см .: Как регулировать ввод-вывод для каждого процесса до максимальный лимит? ionice - это подход, но он станет эффективным только при одновременной нагрузке.