Конфигурация MPM предварительной настройки Apache / 2.4.6 по умолчанию на Centos 7

Где я могу найти конфигурацию MPM по умолчанию? Я ожидаю увидеть нечто подобное либо на httpd.conf , либо на conf.modules.d / 00-mpm.conf , но ни в одном из них такого нет :

<IfModule mpm_prefork_module>
    StartServers          2
    MinSpareServers       6
    MaxSpareServers      12
    MaxClients           60
    MaxRequestsPerChild  3000
</IfModule>

00-mpm.conf выглядит так: поэтому для начала я решил провести несколько простых тестов, чтобы понять, как он себя ведет. Я хотел выйти за пределы его производительности, поэтому я подготовил Amazon ...

Я новичок в ZFS, поэтому для начала я подумал, что проведу несколько простых тестов, чтобы понять, как он ведет себя. Я хотел раздвинуть границы его производительности, поэтому я подготовил инстанс Amazon EC2 i2.8xlarge (почти 7 долларов в час, время действительно - деньги!). В этом экземпляре 8 твердотельных накопителей по 800 ГБ.

Я провел тест fio на самих твердотельных накопителях и получил следующий результат (усеченный):

$ sudo fio --name randwrite --ioengine=libaio --iodepth=2 --rw=randwrite --bs=4k --size=400G --numjobs=8 --runtime=300 --group_reporting --direct=1 --filename=/dev/xvdb
[trimmed]
  write: io=67178MB, bw=229299KB/s, iops=57324, runt=300004msec
[trimmed]

57K IOPS для произвольной записи 4K.

Затем я создал том ZFS, охватывающий все 8. Сначала у меня был один raidz1 vdev со всеми 8 твердотельными накопителями в нем, но я читал о причинах, по которым это плохо для производительности, так что у меня получилось четыре зеркальных vdev, вот так:

$ sudo zpool create testpool mirror xvdb xvdc mirror xvdd xvde mirror xvdf xvdg mirror xvdh xvdi
$ sudo zpool list -v
NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAG    CAP  DEDUP  HEALTH  ALTROOT
testpool  2.91T   284K  2.91T         -     0%     0%  1.00x  ONLINE  -
  mirror   744G   112K   744G         -     0%     0%
    xvdb      -      -      -         -      -      -
    xvdc      -      -      -         -      -      -
  mirror   744G    60K   744G         -     0%     0%
    xvdd      -      -      -         -      -      -
    xvde      -      -      -         -      -      -
  mirror   744G      0   744G         -     0%     0%
    xvdf      -      -      -         -      -      -
    xvdg      -      -      -         -      -      -
  mirror   744G   112K   744G         -     0%     0%
    xvdh      -      -      -         -      -      -
    xvdi      -      -      -         -      -      -

Я установил размер записи на 4K и провел тест:

$ sudo zfs set recordsize=4k testpool
$ sudo fio --name randwrite --ioengine=libaio --iodepth=2 --rw=randwrite --bs=4k --size=400G --numjobs=8 --runtime=300 --group_reporting --filename=/testpool/testfile --fallocate=none
[trimmed]
  write: io=61500MB, bw=209919KB/s, iops=52479, runt=300001msec
    slat (usec): min=13, max=155081, avg=145.24, stdev=901.21
    clat (usec): min=3, max=155089, avg=154.37, stdev=930.54
     lat (usec): min=35, max=155149, avg=300.91, stdev=1333.81
[trimmed]

Я получаю только 52K IOPS для этого пула ZFS. На самом деле это немного хуже, чем сам SSD.

Я не понимаю, что я здесь делаю не так. Я неправильно настроил ZFS или это плохой тест производительности ZFS?

Обратите внимание, что я использую официальный 64-битный образ CentOS 7 HVM, хотя я обновился до ядра 4.4.5 elrepo:

$ uname -a
Linux ip-172-31-43-196.ec2.internal 4.4.5-1.el7.elrepo.x86_64 #1 SMP Thu Mar 10 11:45:51 EST 2016 x86_64 x86_64 x86_64 GNU/Linux

Я установил ZFS из репозитория zfs, указанного здесь . У меня версия 0.6.5.5 пакета zfs .

ОБНОВЛЕНИЕ : Предложение Per @ ewwhite. Я попробовал ashift = 12 и ashift = 13 :

$ sudo zpool create testpool mirror xvdb xvdc mirror xvdd xvde mirror xvdf xvdg mirror xvdh xvdi -o ashift=12 -f

и

$ sudo zpool create testpool mirror xvdb xvdc mirror xvdd xvde mirror xvdf xvdg mirror xvdh xvdi -o ashift=13 -f

Ни то, ни другое не имело никакого значения. Насколько я понимаю, последние биты ZFS достаточно умны, идентифицируют твердотельные накопители 4K и используют разумные значения по умолчанию.

Однако я заметил, что загрузка ЦП резко возрастает. @Tim предложил это, но я отклонил это, но я думаю, что не наблюдал за процессором достаточно долго, чтобы заметить. В этом экземпляре около 30 ядер ЦП, и загрузка ЦП возрастает до 80%. Голодный процесс? z_wr_iss , много его экземпляров.

Я подтвердил, что сжатие отключено, поэтому это не механизм сжатия.

Я не использую raidz, поэтому это не должно быть вычислением четности.

Я выполнил perf top , и он показывает большую часть времени ядра, потраченного на _raw_spin_unlock_irqrestore в z_wr_int_4 и osq_lock в ] z_wr_iss .

Теперь я считаю, что в этом узком месте производительности есть компонент ЦП, хотя я не приблизился к тому, чтобы выяснить, что это может быть.

ОБНОВЛЕНИЕ 2 : Пер @ewwhite и другие предположили, что это виртуализированный Природа этой среды, которая создает неопределенность в производительности, я использовал fio для тестирования случайных операций записи 4K, распределенных между четырьмя твердотельными накопителями в среде. Каждый SSD сам по себе дает ~ 55 000 операций ввода-вывода в секунду, поэтому я ожидал около 240 000 операций ввода-вывода для четырех из них. Это более или менее то, что я получил:

$ sudo fio --name randwrite --ioengine=libaio --iodepth=8 --rw=randwrite --bs=4k --size=398G --numjobs=8 --runtime=300 --group_reporting --filename=/dev/xvdb:/dev/xvdc:/dev/xvdd:/dev/xvde
randwrite: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=8
...
randwrite: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=8
fio-2.1.5
Starting 8 processes
[trimmed]
  write: io=288550MB, bw=984860KB/s, iops=246215, runt=300017msec
    slat (usec): min=1, max=24609, avg=30.27, stdev=566.55
    clat (usec): min=3, max=2443.8K, avg=227.05, stdev=1834.40
     lat (usec): min=27, max=2443.8K, avg=257.62, stdev=1917.54
[trimmed]

Это ясно показывает, что среда, пусть даже виртуализированная, может поддерживать IOPS намного выше, чем я вижу. Что-то в том, как реализована ZFS, не позволяет ей достичь максимальной скорости. Я просто не могу понять, что это такое.

12
задан 22 March 2016 в 05:45
3 ответа

És possible que aquesta configuració no estigui ben afinada. Hi ha paràmetres necessaris tant per al fitxer /etc/modprobe/zfs.conf com per al valor ashift quan s'utilitzen SSD

Proveu ashift = 12 o 13 i torneu a provar.


Edició:

Aquesta segueix sent una solució virtualitzada, de manera que no sabem massa sobre el maquinari subjacent ni sobre com està interconnectat tot. No sé que obtindreu un millor rendiment d'aquesta solució.


Edita:

Suposo que no veig el sentit d'intentar optimitzar una instància de núvol d'aquesta manera. Perquè si l’objectiu fos el màxim rendiment, faríeu servir maquinari, oi?

Però recordeu que ZFS té un munt de configuracions sintonitzables i que el que obteniu per defecte no és a prop del vostre cas d'ús.

Proveu el següent a /etc/modprobe.d/zfs.conf i reinicieu. És el que faig servir a les meves agrupacions de dades totalment SSD per als servidors d'aplicacions. El descens de cendres hauria de ser 12 o 13. Punt de referència amb compressió = desactivat, però utilitzeu compressió = lz4 a la producció. Set atime = off. Deixaria la mida de registre per defecte (128.000).

options zfs zfs_vdev_scrub_min_active=48
options zfs zfs_vdev_scrub_max_active=128
options zfs zfs_vdev_sync_write_min_active=64
options zfs zfs_vdev_sync_write_max_active=128
options zfs zfs_vdev_sync_read_min_active=64
options zfs zfs_vdev_sync_read_max_active=128
options zfs zfs_vdev_async_read_min_active=64
options zfs zfs_vdev_async_read_max_active=128
options zfs zfs_top_maxinflight=320
options zfs zfs_txg_timeout=30
options zfs zfs_dirty_data_max_percent=40
options zfs zfs_vdev_scheduler=deadline
options zfs zfs_vdev_async_write_min_active=8
options zfs zfs_vdev_async_write_max_active=64
options zfs zfs_prefetch_disable=1
6
ответ дан 2 December 2019 в 21:39

Похоже, вы ожидаете блокировки мьютекса ядра Linux, которая, в свою очередь, может ожидать в кольцевом буфере Xen. Я не могу быть уверен в этом, не имея доступа к аналогичной машине, но я не заинтересован в том, чтобы платить Amazon 7 долларов в час за эту привилегию.

Более подробная информация здесь: https: // www. reddit.com/r/zfs/comments/4b4r1y/why_is_zfs_on_linux_unable_to_fully_utilize_8x/d1e91wo; Я бы предпочел, чтобы это было в одном месте, чем в двух.

2
ответ дан 2 December 2019 в 21:39

ይህንን ለመከታተል በመሞከር ጥሩ ጊዜን አሳልፌያለሁ። የእኔ ልዩ ተግዳሮት-የፖስትግረስ አገልጋይ እና ZFS ን ለመረጃው መጠን መጠቀም እፈልጋለሁ ፡፡ የመነሻ መስመሩ XFS ነው።

በመጀመሪያ እና በዋነኝነት ፣ የእኔ ሙከራዎች ashift = 12 ስህተት እንደሆነ ይነግሩኛል። የሆነ አስማት ካለ (1145554] አሽፍት ቁጥር 12 አይደለም 12 ነኝ 0 ን እየተጠቀምኩ ሲሆን በጣም ጥሩ ውጤት እያገኘሁ ነው።

እኔ ደግሞ የዚፍ ብዙ አማራጮችን ሞክሬያለሁ። እና ከዚህ በታች ያሉትን ውጤቶች የሚሰጡኝ የሚከተሉት ናቸው-

atime = off - የመዳረሻ ጊዜዎች አያስፈልጉኝም

checksum = off - እያንፀባረቅኩ ነው እንጂ መስታወት እያየሁ አይደለም

መጭመቅ = lz4 - አፈፃፀም የተሻለ ነው በመጭመቅ (cpu tradeoff?)

exec = off - ይህ ለመረጃ እንጂ ለመፈፀም አይደለም

logbias = throughput - Read on ይህ ለ “Postgres”

recordsize = 8k - የተሻሉ ኢንተርዌብሶች የተሻሉ ናቸው - PG የተወሰነ 8 ኪ ማገጃ

ማመሳሰል = መደበኛ - ማመሳሰልን ለማጥፋት ሞከረ; ብዙም ጥቅም አላገኘም

ከዚህ በታች ያሉት የእኔ ሙከራዎች ከኤክስኤፍኤስ አፈፃፀም በተሻለ ያሳያሉ (እባክዎን በፈተናዎቼ ውስጥ ስህተቶችን ካዩ አስተያየት ይስጡ!) ፡፡

የእኔ የተወሰነ ቅንብር-

EC2: m4.xlarge ለምሳሌ

EBS: 250GB gp2 ጥራዞች

የከርነል ሊነክስ [...] 3.13.0 -105-generic # 152-Ubuntu SMP [...] x86_64 x86_64 x86_64 GNU / Linux *

በመጀመሪያ ጥሬ የኢቢኤስ አፈፃፀም ለመሞከር ፈልጌ ነበር ፡፡ ከዚህ በላይ የ ፊዮ ትዕዛዝን ልዩነት በመጠቀም ከዚህ በታች ያለውን ማበረታቻ መጣሁ ፡፡ ማሳሰቢያ: - እኔ 8 ኪ ብሎኮችን እጠቀማለሁ ምክንያቱም ያንን ያነበብኩት PostgreSQL ን የፃፈው የሚከተለው ነው-

ubuntu@ip-172-31-30-233:~$ device=/dev/xvdbd; sudo dd if=/dev/zero of=${device} bs=1M count=100 && sudo fio --name randwrite --ioengine=libaio --iodepth=4 --rw=randwrite --bs=8k --size=400G --numjobs=4 --runtime=60 --group_reporting --fallocate=none --filename=${device}
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 0.250631 s, 418 MB/s
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
...
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
fio-2.1.3
Starting 4 processes
Jobs: 4 (f=4): [wwww] [100.0% done] [0KB/13552KB/0KB /s] [0/1694/0 iops] [eta 00m:00s]
randwrite: (groupid=0, jobs=4): err= 0: pid=18109: Tue Feb 14 19:13:53 2017
  write: io=3192.2MB, bw=54184KB/s, iops=6773, runt= 60327msec
    slat (usec): min=2, max=805209, avg=585.73, stdev=6238.19
    clat (usec): min=4, max=805236, avg=1763.29, stdev=10716.41
     lat (usec): min=15, max=805241, avg=2349.30, stdev=12321.43
    clat percentiles (usec):
     |  1.00th=[   15],  5.00th=[   16], 10.00th=[   17], 20.00th=[   19],
     | 30.00th=[   23], 40.00th=[   24], 50.00th=[   25], 60.00th=[   26],
     | 70.00th=[   27], 80.00th=[   29], 90.00th=[   36], 95.00th=[15808],
     | 99.00th=[31872], 99.50th=[35584], 99.90th=[99840], 99.95th=[199680],
     | 99.99th=[399360]
    bw (KB  /s): min=  156, max=1025440, per=26.00%, avg=14088.05, stdev=67584.25
    lat (usec) : 10=0.01%, 20=20.53%, 50=72.20%, 100=0.86%, 250=0.17%
    lat (usec) : 500=0.13%, 750=0.01%, 1000=0.01%
    lat (msec) : 2=0.01%, 4=0.01%, 10=0.59%, 20=2.01%, 50=3.29%
    lat (msec) : 100=0.11%, 250=0.05%, 500=0.02%, 750=0.01%, 1000=0.01%
  cpu          : usr=0.22%, sys=1.34%, ctx=9832, majf=0, minf=114
  IO depths    : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=408595/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=3192.2MB, aggrb=54184KB/s, minb=54184KB/s, maxb=54184KB/s, mint=60327msec, maxt=60327msec

Disk stats (read/write):
  xvdbd: ios=170/187241, merge=0/190688, ticks=180/8586692, in_queue=8590296, util=99.51%

ጥሬ የኢቢኤስ መጠን አፈፃፀም WRITE: io = 3192.2MB ነው ፡፡ ያው ፊዮ ትእዛዝ:

Jobs: 4 (f=4): [wwww] [100.0% done] [0KB/0KB/0KB /s] [0/0/0 iops] [eta 00m:00s]
randwrite: (groupid=0, jobs=4): err= 0: pid=17441: Tue Feb 14 19:10:27 2017
  write: io=3181.9MB, bw=54282KB/s, iops=6785, runt= 60024msec
    slat (usec): min=3, max=21077K, avg=587.19, stdev=76081.88
    clat (usec): min=4, max=21077K, avg=1768.72, stdev=131857.04
     lat (usec): min=23, max=21077K, avg=2356.23, stdev=152444.62
    clat percentiles (usec):
     |  1.00th=[   29],  5.00th=[   40], 10.00th=[   46], 20.00th=[   52],
     | 30.00th=[   56], 40.00th=[   59], 50.00th=[   63], 60.00th=[   69],
     | 70.00th=[   79], 80.00th=[   99], 90.00th=[  137], 95.00th=[  274],
     | 99.00th=[17024], 99.50th=[25472], 99.90th=[70144], 99.95th=[120320],
     | 99.99th=[1564672]
    bw (KB  /s): min=    2, max=239872, per=66.72%, avg=36217.04, stdev=51480.84
    lat (usec) : 10=0.01%, 20=0.03%, 50=15.58%, 100=64.51%, 250=14.55%
    lat (usec) : 500=1.36%, 750=0.33%, 1000=0.25%
    lat (msec) : 2=0.68%, 4=0.67%, 10=0.71%, 20=0.58%, 50=0.59%
    lat (msec) : 100=0.10%, 250=0.02%, 500=0.01%, 750=0.01%, 1000=0.01%
    lat (msec) : 2000=0.01%, >=2000=0.01%
  cpu          : usr=0.43%, sys=4.81%, ctx=269518, majf=0, minf=110
  IO depths    : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=407278/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=3181.9MB, aggrb=54282KB/s, minb=54282KB/s, maxb=54282KB/s, mint=60024msec, maxt=60024msec

Disk stats (read/write):
  xvdbd: ios=4/50983, merge=0/319694, ticks=0/2067760, in_queue=2069888, util=26.21%

መሰረታችን ነው ፃፍ io = 3181.9MB ; ወደ ጥሬ የዲስክ ፍጥነት በጣም ቀርቧል።

አሁን ወደ ZFS በ WRITE: io = 3181.9MB እንደ ማጣቀሻ-

ubuntu@ip-172-31-30-233:~$ sudo zpool create testpool xvdbd -f && (for option in atime=off checksum=off compression=lz4 exec=off logbias=throughput recordsize=8k sync=standard; do sudo zfs set $option testpool; done;) && sudo fio --name randwrite --ioengine=libaio --iodepth=4 --rw=randwrite --bs=8k --size=400G --numjobs=4 --runtime=60 --group_reporting --fallocate=none --filename=/testpool/testfile; sudo zpool destroy testpool
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
...
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
fio-2.1.3
Starting 4 processes
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
Jobs: 4 (f=4): [wwww] [100.0% done] [0KB/41328KB/0KB /s] [0/5166/0 iops] [eta 00m:00s]
randwrite: (groupid=0, jobs=4): err= 0: pid=18923: Tue Feb 14 19:17:18 2017
  write: io=4191.7MB, bw=71536KB/s, iops=8941, runt= 60001msec
    slat (usec): min=10, max=1399.9K, avg=442.26, stdev=4482.85
    clat (usec): min=2, max=1400.4K, avg=1343.38, stdev=7805.37
     lat (usec): min=56, max=1400.4K, avg=1786.61, stdev=9044.27
    clat percentiles (usec):
     |  1.00th=[   62],  5.00th=[   75], 10.00th=[   87], 20.00th=[  108],
     | 30.00th=[  122], 40.00th=[  167], 50.00th=[  620], 60.00th=[ 1176],
     | 70.00th=[ 1496], 80.00th=[ 2320], 90.00th=[ 2992], 95.00th=[ 4128],
     | 99.00th=[ 6816], 99.50th=[ 9536], 99.90th=[30592], 99.95th=[66048],
     | 99.99th=[185344]
    bw (KB  /s): min= 2332, max=82848, per=25.46%, avg=18211.64, stdev=15010.61
    lat (usec) : 4=0.01%, 50=0.09%, 100=14.60%, 250=26.77%, 500=5.96%
    lat (usec) : 750=5.27%, 1000=4.24%
    lat (msec) : 2=20.96%, 4=16.74%, 10=4.93%, 20=0.30%, 50=0.08%
    lat (msec) : 100=0.04%, 250=0.03%, 500=0.01%, 2000=0.01%
  cpu          : usr=0.61%, sys=9.48%, ctx=177901, majf=0, minf=107
  IO depths    : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=536527/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=4191.7MB, aggrb=71535KB/s, minb=71535KB/s, maxb=71535KB/s, mint=60001msec, maxt=60001msec

ማሳሰቢያ ፣ ይህ ከ XFS በተሻለ አፈፃፀም አሳይቷል። ፡፡ እኔ በእርግጠኝነት እርግጠኛ ነኝ ይህ በመጭመቅ ምክንያት ነው ፡፡

ለመርገጥ እኔ ሁለተኛ ድምጽ ልጨምር ነው

ubuntu@ip-172-31-30-233:~$ sudo zpool create testpool xvdb{c,d} -f && (for option in atime=off checksum=off compression=lz4 exec=off logbias=throughput recordsize=8k sync=standard; do sudo zfs set $option testpool; done;) && sudo fio --name randwrite --ioengine=libaio --iodepth=4 --rw=randwrite --bs=8k --size=400G --numjobs=4 --runtime=60 --group_reporting --fallocate=none --filename=/testpool/testfile; sudo zpool destroy testpool
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
...
randwrite: (g=0): rw=randwrite, bs=8K-8K/8K-8K/8K-8K, ioengine=libaio, iodepth=4
fio-2.1.3
Starting 4 processes
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
randwrite: Laying out IO file(s) (1 file(s) / 409600MB)
Jobs: 4 (f=4): [wwww] [100.0% done] [0KB/71936KB/0KB /s] [0/8992/0 iops] [eta 00m:00s]
randwrite: (groupid=0, jobs=4): err= 0: pid=20901: Tue Feb 14 19:23:30 2017
  write: io=5975.9MB, bw=101983KB/s, iops=12747, runt= 60003msec
    slat (usec): min=10, max=1831.2K, avg=308.61, stdev=4419.95
    clat (usec): min=3, max=1831.6K, avg=942.64, stdev=7696.18
     lat (usec): min=58, max=1831.8K, avg=1252.25, stdev=8896.67
    clat percentiles (usec):
     |  1.00th=[   70],  5.00th=[   92], 10.00th=[  106], 20.00th=[  129],
     | 30.00th=[  386], 40.00th=[  490], 50.00th=[  692], 60.00th=[  796],
     | 70.00th=[  932], 80.00th=[ 1160], 90.00th=[ 1624], 95.00th=[ 2256],
     | 99.00th=[ 5344], 99.50th=[ 8512], 99.90th=[30592], 99.95th=[60672],
     | 99.99th=[117248]
    bw (KB  /s): min=   52, max=112576, per=25.61%, avg=26116.98, stdev=15313.32
    lat (usec) : 4=0.01%, 10=0.01%, 50=0.04%, 100=7.17%, 250=19.04%
    lat (usec) : 500=14.36%, 750=15.36%, 1000=17.41%
    lat (msec) : 2=20.28%, 4=4.82%, 10=1.13%, 20=0.25%, 50=0.08%
    lat (msec) : 100=0.04%, 250=0.02%, 2000=0.01%
  cpu          : usr=1.05%, sys=15.14%, ctx=396649, majf=0, minf=103
  IO depths    : 1=0.1%, 2=0.1%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=764909/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=5975.9MB, aggrb=101982KB/s, minb=101982KB/s, maxb=101982KB/s, mint=60003msec, maxt=60003msec

ከሁለተኛው ድምጽ ጋር ፣ ፃፍ io = 5975.9MB ፣ ስለዚህ ~ 1.8X ይጽፋል።

አንድ ሦስተኛ ጥራዝ ይሰጠናል ይጻፉ io = 6667.5 ሜባ ስለዚህ ~ 2.1X ይጽፋል።

እና አራተኛው ጥራዝ ይሰጠናል ሜባ ። ለእዚህ ምሳሌ ፣ የኢቢኤስ ኔትወርክን በሁለት ጥራዞች ፣ በእርግጠኝነት በሶስት ያገለገልኩ ይመስላል እናም በ 4 (750 * 3 = 2250 IOPS) የተሻለ አይደለም ፡፡

* ከ ከዚህ ቪዲዮ ያድርጉ ሁሉንም የኢ.ቢ.ኤስ ጥሩነት ለማግኘት 3.8+ የሊነክስ ቄንጥን እየተጠቀሙ መሆኑን ያረጋግጡ ፡፡

1
ответ дан 2 December 2019 в 21:39

Теги

Похожие вопросы