Моделируйте медленное соединение между двумя машинами сервера человечности

Я хочу моделировать следующий сценарий: учитывая, что у меня есть 4 машины сервера человечности A, B, C и D. Я хочу уменьшить сетевую пропускную способность на 20% между машиной A и машиной C и 10% между A и B. Как сделать это моделирование/регулировку сети использования инструменты?

9
задан 30 December 2014 в 00:46
4 ответа

Для этого вы можете использовать tc отдельно с фильтрами u32 или в сочетании с iptables marking (может быть, более просто если вы не хотите изучать синтаксис сложных фильтров). В следующем посте я подробно расскажу о первом решении.


Моделирование вашей установки

В качестве примера давайте рассмотрим A, B, C и D, использующие 10 Мбит / с виртуальных интерфейсов.

] В основном вы хотите:

  • A <==> B: 9 Мбит / с формирование для исходящего трафика
  • A <==> C: 8 Мбит / с формирование для egress

Чтобы смоделировать это, я создам 4 сетевых пространства имен и виртуальных интерфейсов Ethernet, подключенных к мосту.

Конечно, в вашем случае вы будете работать с настоящими сетевыми адаптерами, а мост будет вашим шлюзом или коммутатором в зависимости от вашей инфраструктуры.

Итак, в моем моделировании у нас будет следующая настройка в 10.0.0.0/ 24 network:

                                  10.0.0.254            

                                  +-------+                     
                                  |       |                     
                                  |  br0  |                     
                                  |       |                   
                                  +---+---+                     
                                      |                         
                                      | veth{A..D}.peer        
                                      |                      
                  +------------+------+-----+------------+     
                  |            |            |            |      
            vethA |      vethB |      vethC |      vethD |      
              +---+---+    +---+---+    +---+---+    +---+---+  
              |       |    |       |    |       |    |       |   
              |   A   |    |   B   |    |   C   |    |   D   |   
              |       |    |       |    |       |    |       |  
              +-------+    +-------+    +-------+    +-------+    

              10.0.0.1      10.0.0.2     10.0.0.3     10.0.0.4           

Во-первых, этап настройки, чтобы вы могли понять, из чего он сделан, пропустите его, если вы с ним не знакомы, ничего страшного. Однако вы должны знать, что команда ip netns exec позволяет выполнять команду в сетевом пространстве имен (то есть в одном из полей предыдущего розыгрыша). Это также будет использоваться в следующем разделе.

# Create the bridge
ip link add br0 type bridge

# Create network namespaces and veth interfaces and plug them into the bridge
for host in {A..D} ; do 
    ip link netns add ${host}
    ip link add veth${host} type veth peer name veth${host}.peer
    ip link set dev veth${host}.peer master br0
    ip link set dev veth${host} netns ${host}
    ip netns exec ${host} ip link set veth${host} up
done

# Assign IPs
ip addr add 10.0.0.254/24 dev br0
ip netns exec A ip addr add 10.0.0.1/24 dev vethA
ip netns exec B ip addr add 10.0.0.2/24 dev vethB
ip netns exec C ip addr add 10.0.0.3/24 dev vethC
ip netns exec D ip addr add 10.0.0.4/24 dev vethD

Итак, на этом этапе у нас есть настройка, описанная ранее.


Формирование трафика

Пришло время перейти к управлению трафиком, чтобы получить то, что вы хотите. Инструмент tc позволяет добавлять дисциплины очередей:

  • Для выхода: когда ядру необходимо отправить пакеты и до доступа к драйверу сетевой карты.
  • Для входа: после доступа к драйверу сетевой карты и до подпрограммы ядра выполняются над полученными пакетами.

Он имеет 3 понятия: qdisc , классы и фильтры .Эти понятия могут быть использованы для настройки сложного управления потоком пакетов и определения приоритетов трафика на основе любого критерия / критериев, который вы хотите.

В двух словах:

  • Qdiscs - это структуры, в которых пакеты в конечном итоге будут помещены в очередь / исключены.
  • Классы являются контейнеры для qdiscs, действующих с определенным поведением.
  • Фильтры - это способы маршрутизации пакетов между классами, несколько из них могут быть определены в одной точке входа с приоритетами во время обработки.

Все они обычно работают как дерево, где листья - qdiscs. а классы - это узлы. Корень дерева или поддерева будет объявлен как : , а дочерние узлы будут объявлены как : . Помните об этом синтаксисе.

В вашем случае возьмем A и отрендерим дерево, которое вы хотите настроить, с помощью tc :

                                     1:
                                      |
                                      |
                                      |
                                     1:1
                                   /  |  \
                                  /   |   \
                                 /    |    \
                               1:10  1:20  1:30
                                |     |     |
                                |     |     |
                               :10   :20   :30

Пояснение:

  • 1: - это корневой qdisc, прикрепленный к устройству vethA, он будет явно обозначен как htb для Hierarchy Token Bucket (qdisc устройства по умолчанию - pfifo или pfifo_fast в зависимости от ОС). Это особенно подходит для управления пропускной способностью. Пакеты, не соответствующие фильтрам, определенным на этом уровне, будут попадать в класс 1:30 .
  • 1: 1 будет классом htb , ограничивающим весь трафик устройства до 10 Мбит / с.
  • 1:10 будет классом htb , ограничивающим выходной трафик до 9 Мбит / с (90% от 10 Мбит / с).
  • 1:20 будет классом htb , ограничивающим выходной трафик до 8 Мбит / с (80% от 10 Мбит / с).
  • 1:30 будет htb ], ограничивающий трафик до 10 Мбит / с (откат).
  • : 10,: 20,: 30 - это sfq qdisc для стохастической справедливой организации очередей. Другими словами, эти qdiscs обеспечат справедливость в планировании передачи на основе потоков.

Все это настраивается следующими командами:

ip netns exec A tc qdisc add dev vethA root handle 1: htb default 30
ip netns exec A tc class add dev vethA parent 1: classid 1:1 htb rate 10mbit burst 15k
ip netns exec A tc class add dev vethA parent 1:1 classid 1:10 htb rate 9mbit burst 15k
ip netns exec A tc class add dev vethA parent 1:1 classid 1:20 htb rate 8mbit burst 15k
ip netns exec A tc class add dev vethA parent 1:1 classid 1:30 htb rate 10mbit burst 15k
ip netns exec A tc qdsic add dev vethA parent 1:10 handle 10: sfq perturb 10
ip netns exec A tc qdisc add dev vethA parent 1:20 handle 20: sfq perturb 10
ip netns exec A tc qdisc add dev vethA parent 1:30 handle 30: sfq perturb 10

Последнее, что нам нужно, - это добавить фильтры, чтобы IP-пакеты с IP-адресом назначения равным B отправлялись в 1:10 класс и IP-пакеты с IP-адресом назначения, равным C, будут отправлены в 1:20 class:

ip netns exec A tc filter add dev vethA parent 1: protocol ip prio 1 u32 match ip dst 10.0.0.2/32 flowid 1:10
ip netns exec A tc filter add dev vethA parent 1: protocol ip prio 2 u32 match ip dst 10.0.0.3/32 flowid 1:20

Теперь, когда вы поняли идею, вам нужно будет добавить аналогичные ] tc управляет B и C, поэтому передачи к A от этих установок также имеют форму.


Тестирование

Теперь давайте проверим это. Для этого я лично привык играть с iperf , он просто состоит из одного двоичного файла, который может быть запущен либо как клиент, либо как сервер, и будет автоматически отправлять как можно больше трафика между обоими хостами.

Между A и B:

 $ ip netns exec B iperf -s -p 8001
  ...
 $ ip netns exec A iperf -c 10.0.0.2 -p 8001 -t 10 -i 2
------------------------------------------------------------
Client connecting to 10.0.0.2, TCP port 8001
TCP window size: 21.0 KByte (default)
------------------------------------------------------------
[  5] local 10.0.0.1 port 58191 connected with 10.0.0.2 port 8001
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0- 2.0 sec  2.38 MBytes  9.96 Mbits/sec
[  5]  2.0- 4.0 sec  2.12 MBytes  8.91 Mbits/sec
[  5]  4.0- 6.0 sec  2.00 MBytes  8.39 Mbits/sec
[  5]  6.0- 8.0 sec  2.12 MBytes  8.91 Mbits/sec
[  5]  8.0-10.0 sec  2.00 MBytes  8.39 Mbits/sec
[  5]  0.0-10.1 sec  10.8 MBytes  8.91 Mbits/sec

Мы получаем наш предел пропускной способности 9 Мбит / с .

Между A и C:

$ ip netns exec C iperf -s -p 8001
...
$ ip netns exec A iperf -c 10.0.0.3 -p 8001 -t 10 -i 2
------------------------------------------------------------
Client connecting to 10.0.0.3, TCP port 8001
TCP window size: 21.0 KByte (default)
------------------------------------------------------------
[  5] local 10.0.0.1 port 58522 connected with 10.0.0.3 port 8001
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0- 2.0 sec  2.25 MBytes  9.44 Mbits/sec
[  5]  2.0- 4.0 sec  1.75 MBytes  7.34 Mbits/sec
[  5]  4.0- 6.0 sec  1.88 MBytes  7.86 Mbits/sec
[  5]  6.0- 8.0 sec  1.88 MBytes  7.86 Mbits/sec
[  5]  8.0-10.0 sec  1.75 MBytes  7.34 Mbits/sec
[  5]  0.0-10.1 sec  9.62 MBytes  7.98 Mbits/sec

Мы получаем 8 Мбит / с предел пропускной способности.

Между A и D:

$ ip netns exec D iperf -s -p 8001
...
$ ip netns exec A iperf -c 10.0.0.4 -p 8001 -t 10 -i 2
------------------------------------------------------------
Client connecting to 10.0.0.4, TCP port 8001
TCP window size: 21.0 KByte (default)
------------------------------------------------------------
[  5] local 10.0.0.1 port 40614 connected with 10.0.0.4 port 8001
[ ID] Interval       Transfer     Bandwidth
[  5]  0.0- 2.0 sec  2.62 MBytes  11.0 Mbits/sec
[  5]  2.0- 4.0 sec  2.25 MBytes  9.44 Mbits/sec
[  5]  4.0- 6.0 sec  2.38 MBytes  9.96 Mbits/sec
[  5]  6.0- 8.0 sec  2.25 MBytes  9.44 Mbits/sec
[  5]  8.0-10.0 sec  2.38 MBytes  9.96 Mbits/sec
[  5]  0.0-10.2 sec  12.0 MBytes  9.89 Mbits/sec

Здесь мы имеем виртуальный интерфейс, полная скорость 10 Мбит / с достигнута.

Обратите внимание, что пакет первого измерения каждого прогона может лучше обрабатывать в классах htb , настроив соответствующий параметр.


Очистка

Чтобы удалить:

  • Фильтр приоритета 1 на 1: : tc filter del dev vethA parent 1: prio 1 u32 .
  • Все фильтры на 1: : tc filter del dev vethA parent 1: .
  • Class 1:20 и его дети: tc class del dev ve родитель 1: 1 класс 1:20 .
  • Все дерево: tc qdisc del dev vethA .

Чтобы очистить набор для моделирования:

# Remove veth pairs and network namespaces
for host in {A..D} ; do
    ip link del dev veth${host}.peer
    ip netns del ${host}
done

# Remove the bridge
ip link del dev br0
15
ответ дан 2 December 2019 в 22:26

Ubuntu имеет IPFW, перенесенный из FreeBSD, а IPFW имеет DUMMYNET, который позволяет управлять различными параметрами сети - пропускной способностью, задержкой, скоростью потери пакетов и т. Д.

0
ответ дан 2 December 2019 в 22:26

Лучше всего использовать инструменты tc с интегрированным (по крайней мере, в сервер Ubuntu) модулем netem. Дополнительную информацию можно найти в этой статье из Stackoverflow .

0
ответ дан 2 December 2019 в 22:26

Trickle работает хорошо.

Это обсуждение показывает некоторые ограничения: https://unix.stackexchange.com/questions/109973/how-to-change-speed-limit-of-running-trickle-instance

0
ответ дан 2 December 2019 в 22:26

Теги

Похожие вопросы