Существует проблема с сервером Звездочки, показывающим высокое Среднее число Загрузки, которое я не могу объяснить. Нью-йоркская установка:
Звездочка используется для отправки голосовых сообщений. У меня есть один восходящий поставщик SIP, никакие аппаратные карты телефонии. Существуют только alaw/ulaw позволен в sip.conf.
Я использую команду AMI Originate для запуска вызова; затем я выполняю Воспроизведение () в контексте для отправки записанного заранее голосового сообщения (ulaw файлы в локальном ext4 FS). Нет никакого другого взаимодействия с вызываемым, никаким меню IVR, никакой записью вызовов. Пара очень простого Perl сценарии AGI сохраняет результат вызова к DBS (MySQL и MSSQL (через Perl Sybase)); обычно существует 1-2 вызова AGI на, Происходят. Кроме того, нет почти никакой обработки в расширении - буквально 20 строк предварительной установки veriables для CDR () и пара вызовов AGI. Существует только одно соединение AMI, я использую для инициирования все вызовы.
Определенное - большинство звонков не отвечают. Я инициирую до 50 вызовов в секунду, но только 5-10 на самом деле взяты и слушали.
Проблема - у меня есть очень низкое использование % ЦП, но очень высокая ЛА, Если я itintiate LA на 20-25 симв./с - 20-24, но если я пытаюсь увеличить его до 50 сП, LA, поднимаюсь на 90 +. После ~50LA, существуют проблемы с качеством звука (и я могу понять почему).
Большинство пользователей Звездочки утверждает, что у них есть путь больше интенсивности потока вызовов с менее мощными аппаратными средствами.
# uptime
12:56:36 up 9 days, 15:52, 1 user, load average: 32,10, 33,45, 33,10
#vmstat -w 1
procs ---------------memory-------------- ---swap-- -----io---- -system-- ------cpu-----
r b swpd free buff cache si so bi bo in cs us sy id wa st
3 0 0 30322760 199176 832452 0 0 0 0 237471 38738 5 8 87 0 0
3 0 0 30319148 199176 832500 0 0 0 0 188340 38960 4 6 90 0 0
3 0 0 30325528 199176 832564 0 0 0 26 319903 43916 6 10 83 0 0
105 0 0 30270288 199176 832568 0 0 0 14 175216 39014 4 6 90 0 0
16 0 0 30307908 199176 832572 0 0 0 0 323598 43428 11 12 77 0 0
# mpstat 1
Linux 3.13.0-24-generic (asterisk2) 25.02.2015 _x86_64_ (24 CPU)
13:18:09 CPU %usr %nice %sys %iowait %irq %soft %steal %guest %gnice %idle
13:18:10 all 5,77 0,00 7,90 0,00 0,17 0,00 0,00 0,00 0,00 86,16
13:18:11 all 5,56 0,00 8,83 0,00 0,21 0,00 0,00 0,00 0,00 85,40
13:18:12 all 10,29 0,00 11,42 0,00 0,25 0,00 0,00 0,00 0,00 78,03
13:18:13 all 9,70 0,00 10,75 0,00 0,21 0,00 0,00 0,00 0,00 79,34
# uname -a
Linux asterisk2 3.13.0-24-generic #46-Ubuntu SMP Thu Apr 10 19:11:08 UTC 2014 x86_64 x86_64 x86_64 GNU/Linux
# cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 45
model name : Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz
stepping : 7
microcode : 0x70d
cpu MHz : 2000.216
cache size : 15360 KB
physical id : 0
siblings : 12
core id : 0
cpu cores : 6
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 13
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx lahf_lm arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
bogomips : 4000.43
clflush size : 64
cache_alignment : 64
address sizes : 46 bits physical, 48 bits virtual
...
processor : 23
vendor_id : GenuineIntel
cpu family : 6
model : 45
model name : Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz
stepping : 7
microcode : 0x70d
cpu MHz : 2000.216
cache size : 15360 KB
physical id : 1
siblings : 12
core id : 5
cpu cores : 6
apicid : 43
initial apicid : 43
fpu : yes
fpu_exception : yes
cpuid level : 13
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx lahf_lm arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
bogomips : 4001.85
clflush size : 64
cache_alignment : 64
address sizes : 46 bits physical, 48 bits virtual
# cat /proc/interrupts
CPU02 CPU23
0: 24 0 IR-IO-APIC-edge timer
8: 1 0 IR-IO-APIC-edge rtc0
9: 2 0 IR-IO-APIC-fasteoi acpi
16: 33 0 IR-IO-APIC-fasteoi ehci_hcd:usb1
23: 107 0 IR-IO-APIC-fasteoi ehci_hcd:usb2
88: 0 0 DMAR_MSI-edge dmar0
89: 0 0 DMAR_MSI-edge dmar1
90: 1855369 0 IR-PCI-MSI-edge ahci
91: 1 0 IR-PCI-MSI-edge eth0
92: 11296 0 IR-PCI-MSI-edge eth0-TxRx-0
93: 790 0 IR-PCI-MSI-edge eth0-TxRx-1
94: 85066770 0 IR-PCI-MSI-edge eth0-TxRx-2
95: 6851 0 IR-PCI-MSI-edge eth0-TxRx-3
96: 174614 0 IR-PCI-MSI-edge eth0-TxRx-4
97: 4846139 0 IR-PCI-MSI-edge eth0-TxRx-5
98: 136593 0 IR-PCI-MSI-edge eth0-TxRx-6
99: 1294090 0 IR-PCI-MSI-edge eth0-TxRx-7
109: 2 0 IR-PCI-MSI-edge ioat-msix
110: 2 0 IR-PCI-MSI-edge ioat-msix
111: 2 0 IR-PCI-MSI-edge ioat-msix
112: 2 0 IR-PCI-MSI-edge ioat-msix
113: 2 0 IR-PCI-MSI-edge ioat-msix
114: 2 0 IR-PCI-MSI-edge ioat-msix
115: 2 0 IR-PCI-MSI-edge ioat-msix
116: 2 0 IR-PCI-MSI-edge ioat-msix
117: 0 0 IR-PCI-MSI-edge ioat-msix
118: 0 0 IR-PCI-MSI-edge ioat-msix
119: 0 0 IR-PCI-MSI-edge ioat-msix
120: 0 0 IR-PCI-MSI-edge ioat-msix
121: 0 0 IR-PCI-MSI-edge ioat-msix
122: 0 0 IR-PCI-MSI-edge ioat-msix
123: 0 0 IR-PCI-MSI-edge ioat-msix
124: 0 0 IR-PCI-MSI-edge ioat-msix
NMI: 3642 1990 Non-maskable interrupts
LOC: 53207172 19108700 Local timer interrupts
SPU: 0 0 Spurious interrupts
PMI: 3642 1990 Performance monitoring interrupts
IWI: 804483 60489 IRQ work interrupts
RTR: 0 0 APIC ICR read retries
RES: 60096784 31495629 Rescheduling interrupts
CAL: 4046461325 4101338127 Function call interrupts
TLB: 2390847639 1479027286 TLB shootdowns
TRM: 0 0 Thermal event interrupts
THR: 0 0 Threshold APIC interrupts
MCE: 0 0 Machine check exceptions
MCP: 2501 2501 Machine check polls
ERR: 0
MIS: 0
# atop
CPL | avg1 22.45 | avg5 22.65 | | avg15 22.74 | | csw 379728 | intr 1612164 | | | numcpu 24 |
MEM | tot 31.4G | free 28.4G | cache 829.3M | dirty 0.0M | buff 194.7M | slab 188.0M | | | | |
SWP | tot 32.0G | free 32.0G | | | | | | | vmcom 737.1M | vmlim 47.7G |
MDD | md0 | busy 0% | read 0 | write 12 | KiB/r 0 | KiB/w 4 | MBr/s 0.00 | MBw/s 0.01 | avq 0.00 | avio 0.00 ms |
DSK | sda | busy 1% | read 0 | write 11 | KiB/r 0 | KiB/w 5 | MBr/s 0.00 | MBw/s 0.01 | avq 1.00 | avio 12.7 ms |
DSK | sdb | busy 1% | read 0 | write 11 | KiB/r 0 | KiB/w 5 | MBr/s 0.00 | MBw/s 0.01 | avq 1.00 | avio 11.6 ms |
NET | transport | tcpi 1994 | tcpo 2452 | udpi 17159 | udpo 14811 | tcpao 117 | tcppo 1 | tcprs 0 | tcpie 0 | udpip 0 |
NET | network | ipi 19235 | ipo 17268 | ipfrw 0 | deliv 19235 | | | | icmpi 7 | icmpo 0 |
NET | eth0 0% | pcki 19345 | pcko 17272 | si 3256 Kbps | so 2954 Kbps | coll 0 | erri 0 | erro 0 | drpi 0 | drpo 0 |
Вы видите, существуют очень высокие числа в cs и в vmstat полях. Я не могу объяснить их.
Так, насколько я получаю его - существуют пакеты потоков, становящихся исполняемым файлом в очень короткое время (Вы видите один такой пакет в выводе vmstat). Но что в моей установке может вызвать такую вещь?
Я попробовал:
но ничто не помогло.
Я проверил все, о чем я могу думать - нет никакого диска IO, никаких других приложений на этом сервере. Существуют парни в mailllist с подобной проблемой, но это не было разрешено, и это было вполне давно.
Еще одна мысль - у меня есть еще один сервер с той же проблемой с очень похожими аппаратными средствами и конфигурацией Звездочки, но там Звездочка 1.8 (FreePBX) и CentOS используется. Я подозреваю, это приводит к моему конкретному использованию.
Возможно, это - базовая проблема с AMI, и я должен использовать что-то еще для подписывающих массу вызовов?
EDIT1: Вот мой график LA:
EDIT2: Вот Звездочка strace. Относительно то же на высоко низкой загрузке. Я не программист Linux сам, не может интерпретировать его правильно.
# strace -f -q -c -p 17150
^C% time seconds usecs/call calls errors syscall
------ ----------- ----------- --------- --------- ----------------
42.05 1595.370429 13209 120778 18231 futex
41.21 1563.521630 6304523 248 14 restart_syscall
15.96 605.470340 4726 128105 26 poll
0.23 8.811410 12037 732 nanosleep
0.16 5.903679 26 228693 22073 read
0.15 5.600020 66 85202 write
Ой, я разобрался. Это просто обходной путь, но проблема упала до приемлемого для меня уровня.
После нежелательной перезагрузки в середине дня я заметил, что средняя загрузка сильно упала! Я проверил нашу систему мониторинга серверов - ЛА всегда поднимался понемногу за 3-4 часа непрерывной (и стабильной) нагрузки. Это было незаметно, потому что я не смог перезагрузить его днем ранее.
Как я уже сказал, у меня есть пара скриптов Perl, которые вызываются через приложение AGI ()
. Один из них называется расширением h
; он просто выполняет один простой запрос к БД. Оказалось, что иногда БД немного перегружаются; запросы должны ждать 200-500 мс; Asterisk должен дождаться завершения сценария Perl.
Итак, я использовал fork ()
свой Perl-скрипт при запуске, заставляя вызов AGI () всегда немедленно возвращаться. Это очень помогло! Лос-Анджелес стал намного стабильнее. Это не полное решение - похоже, что-то оно все еще портит внутренности Asterisk, но работает намного медленнее, это почти не проблема.
Для тех, кто ищет готовый к использованию фрагмент кода (не забудьте получить все переменные перед fork ()
ing, так как вы не сможете получить доступ к $ AGI
после):
my $AGI = new Asterisk::AGI;
# get all your variables here
my $var = $AGI->get_variable('var');
undef $AGI;
if (fork) { exit 0; };
open STDIN, '<', '/dev/null'; # dont forget to free your parent's file handles
open STDOUT, '>', '/dev/null';
open STDERR, '>&STDOUT';
Это похоже на ошибку, но мне интересно, почему нет людей с такими проблема не во мне.
EDIT1: Ну, проблема полностью исчезла после устранения вызовов AGI
. Я просто создал пару пользовательских ODBC
функций ( func_odbc.conf
), которые просто сохраняют информацию для асинхронной обработки (позже она обрабатывается отдельным демоном perl). ЛА упала с 20-25 до 0,5-0,9 (!). Я никогда не думал, что AGI
может вызвать такую огромную нагрузку.