Действительно ли возможно, что данные увеличились в размере до такой степени, что периодический запрос MySQL начал возвращаться/обрабатывать столько результатов, что MySQL исчерпывает физическую память и имеет необходимость использовать серьезные объемы виртуальной памяти?
Я решил проблему, используя следующую конфигурацию:
auto eth0
iface eth0 inet static
address 148.111.111.200
netmask 255.255.255.255
pointopoint 148.111.111.193
gateway 148.111.111.193
broadcast 148.111.111.193
# default route to access subnet
auto vmbr0
iface vmbr0 inet static
address 148.111.111.200
netmask 255.255.255.255
bridge_ports none
bridge_stp off
bridge_fd 0
bridge_maxwait 0
#subnet
up ip route add 148.222.222.0/32 dev vmbr0
up ip route add 148.222.222.1/32 dev vmbr0
up ip route add 148.222.222.2/32 dev vmbr0
up ip route add 148.222.222.3/32 dev vmbr0
up ip route add 148.222.222.4/32 dev vmbr0
up ip route add 148.222.222.5/32 dev vmbr0
up ip route add 148.222.222.6/32 dev vmbr0
up ip route add 148.222.222.7/32 dev vmbr0
auto vmbr1
iface vmbr1 inet static
address 10.10.10.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '10.10.10.0/24' -o eth0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '10.10.10.0/24' -o eth0 -j MASQUERADE
На клиентских машинах необходимо определить один рудный два сетевых интерфейса
Пример конфигурационного файла для ubuntu /etc/network/interfaces
#vmbr0
auto eth0
iface eth0 inet static
address 148.222.222.1
netmask 255.255.255.255
pointopoint 148.111.111.200
gateway 148.111.111.200 #public IP for the proxmox node
dns-nameservers 8.8.8.8 8.8.4.4
#vmbr1
auto eth1
iface eth1 inet static
address 10.10.10.20
netmask 255.255.255.0
network 10.10.10.0
broadcast 10.10.10.255
Глядя на вашу конфигурацию для vmbr0, кажется, что вы указываете маршрутизацию на устройства, недоступные для интерфейса (т. Е. На устройства, которые сетевая маска помещает вне досягаемости сети интерфейса).
Не углубляясь в вашу конфигурацию, я бы сделал следующие предложения, чтобы упростить вашу настройку сейчас и в будущем:
Создайте виртуальную машину, которая будет действовать как ваш UTM
(возможно, запустив pfsense, vyatta, astaro, zentyal, clearos, нечистот и т. д.). Это гарантирует, что вы будете беспокоиться о подключении только на одном или двух узлах, которые играют роли шлюза (и резервного шлюза). Тогда вся ваша логика маршрутизации и доступа будет происходить в этой виртуальной машине UTM. Я лично успешно проделал это с pfsense и zentyal Proxmox VE 3.2 теперь работает с openvswitch
, попробуйте развернуть его поверх этого. Это упростит администрирование сетевых стеков, не вдаваясь в подробности правил ebtables и iptables. Кроме того, вы настраиваете сеть как на интерфейсах eth {0,1}, так и на мостах поверх них. Обычно я предлагаю снять конфиги с интерфейсов eth {0,1} и настроить сеть только на интерфейсах моста.
Как насчет следующего, которое отнимает детали конфигурации интерфейса от хоста, а также оставляет контроль над маршрутизацией между сети к вашей виртуальной машине UTM ..:
auto eth0
iface eth0 inet manual
auto eth1
iface eth1 inet manual
auto vmbr0
iface vmbr0 inet manual
bridge_ports eth0
bridge_stp off
bridge_fd 0
auto vmbr1
iface vmbr1 inet manual
bridge_ports eth0
bridge_stp off
bridge_fd 0
auto vmbr2
iface vmbr2 inet static
address 10.10.10.12
netmask 255.255.255.0
gateway 10.10.10.1
bridge_ports eth1
bridge_stp off
bridge_fd 0
Очевидно, что если подключение к хосту является проблемой, вам придется изменить vmbr0 или vmbr1 и добавить IP-адрес хоста. Основная идея состоит в том, чтобы не обременять хост внутренними Сетевая маршрутизация виртуальных машин и одна выделенная виртуальная машина позаботится об этих деталях
С такой настройкой ваша виртуальная машина UTM становится очень мощной, и у вас даже будет маршрутизация хоста для внешних IP-адресов. В этом случае я бы порекомендовал запустить proxmox в кластере (даже в кластере с двумя узлами) и включить HA для виртуальной машины UTM.
и в верхней
auto lo
iface lo inet loopback
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 148.111.111.200
netmask 255.255.255.255
pointopoint 148.111.111.193
gateway 148.111.111.193
broadcast 148.111.111.193
# default route to access subnet
auto vmbr0
iface vmbr0 inet static
address 148.111.111.200
netmask 255.255.255.255
bridge_ports none
bridge_stp off
bridge_fd 0
bridge_maxwait 0
#subnet
up ip route add 148.222.222.0/32 dev vmbr0
up ip route add 148.222.222.1/32 dev vmbr0
up ip route add 148.222.222.2/32 dev vmbr0
up ip route add 148.222.222.3/32 dev vmbr0
up ip route add 148.222.222.4/32 dev vmbr0
up ip route add 148.222.222.5/32 dev vmbr0
up ip route add 148.222.222.6/32 dev vmbr0
up ip route add 148.222.222.7/32 dev vmbr0
auto vmbr1
iface vmbr1 inet static
address 10.10.10.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '10.10.10.0/24' -o eth0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s '10.10.10.0/24' -o eth0 -j MASQUERADE