Если это полные аппаратные средства RAID? Если так, это мог бы быть куст набега, продолжающийся в фоновом режиме. Я проверил бы BIOS RAID и видел бы, включили ли ему фон, вычищающий - он может постоянно выполнять куст, но в более низком приоритете, когда система активно получает доступ к массиву.
Когда ОС останавливается, но адаптер все еще имеет силу, число операции в секунду ввода-вывода от хоста опускается до нуля, который позволяет набегу уделять больше первостепенное значение кусту.
Если это верно, я ожидал бы находить опцию отключить фоновый куст в BIOS, но это может выключить его все время, не как раз в то самое время, когда ОС останавливается.
Вот моя рабочая версия: qos-v3.sh
Это даже работает над QoS для загрузок также; но требуется короткое время, чтобы "стабилизироваться". Это вызвано тем, что насколько я понимаю серверы все еще попытаются отправить Вам на максимальной возможной скорости - но потому что сценарий QoS отбрасывает пакеты, входящее соединение будет часто замедлять уровень, на котором это отправляет пакеты (пока пакеты не прекращают отбрасываться).
Как 7 из 9 сказал бы: сырой, но эффективный (о, Боже, я не сделал...),
Изучите использование "приоритета", "уровня", и "перекройте".
Необходимо смочь в основном дать Q3 низкий процент (и высокий потолок)... и Q1 "более низкий" приоритет (который делает его на самом деле более важным). То, что это должно сделать, дают Q1 преобладающую пропускную способность... когда не используемый... Q3 должен затем быть повышен до своего потолка (как его не как важный).
prio
к моим htb классам в пределах от от 0 до 2, но это, кажется, абсолютно ничего не делает... Какие-либо идеи?
– Nick Bolton
9 November 2009 в 18:46
Хороший Сценарий, мне нравится часть с зависевшей динамической скоростью загрузки времени.;) Так или иначе я делаю точно, что Вы хотите. Я сделал это с htb, но переключился несколько месяцев назад на hfsc. Прием должен ограничить q3 с уровнем к очень низкому проценту, но дать, он с перекрывает полный bandwith. q1, с другой стороны, получает более высокий уровень, и то же перекрывают. Один реальный пример:
tc class add dev ppp0 parent 1: classid 1:1 htb rate 100kbps ceil 100kbps
tc class add dev ppp0 parent 1:1 classid 1:10 htb rate 60kbps ceil 100kbps prio 1
tc class add dev ppp0 parent 1:1 classid 1:11 htb rate 39kbps ceil 100kbps prio 2
tc class add dev ppp0 parent 1:1 classid 1:12 htb rate 1kbps ceil 100kbps prio 3
Q1 был бы 1:10
Q2 был бы 1:11
Q3 был бы 1:12
Возможно, Ваша проблема заключается в рамках Вашего сложного сценария. Попробуйте более легкую версию за отлаживание.
tc -s -d class show dev <interface>
должен показать некоторую статистику об очередях. Давайте покажем нам вывод, если q1 нечего делать, и q3 не использует полный bandwith. Также Вы могли дать hfsc попытку.
Один Комментарий: QOS или Управление трафиком на Вашем входящем трафике довольно бесполезны в большинстве конфигураций. Обычно Вы находитесь в роли получателя, кто не имеет никакой власти по получению что сумма данных/времени. Вы могли использовать Входную Организацию очередей, но она не поможет многому, она только уже отбрасывает полученные пакеты.
Это не настолько плохо, как это звучит, потому что большинство коммутируемых соединений в наше время асимметрично, что означает, что направление передачи является узким местом. (Всегда с Вашей точки зрения)
htb rate 400kbps ceil 500kbps burst 300k prio 3
– Nick Bolton
5 December 2009 в 21:05
htb rate 400kbit ceil 500kbit burst 300k prio 3
– Nick Bolton
5 December 2009 в 21:06