Создайте правило SATP для поставщика систем хранения под названием EMC, установите политику пути как Вокруг Robine и IOPS от значения по умолчанию от 1000 до 1. Это будет персистентностью через перезагрузки и в любое время новая EMC, iSCSI LUN представлены, это правило будет забрано. Чтобы это относилось к существующим iSCSI LUN EMC, перезагрузите хост.
esxcli storage nmp satp rule add --satp="VMW_SATP_DEFAULT_AA" \
--vendor="EMC" -P "VMW_PSP_RR" -O "iops=1"
я играл вокруг с изменением IOPS между 1 - 3 и нахожу выполнение лучшего на единственном VM. Тем не менее, если у Вас есть много VM's, и много хранилищ данных, 1 не может быть оптимальным...
Быть уверенными у Вас есть каждый интерфейс на наборе VNXe к 9 000 метрических тонн. Кроме того, vSwitch с Вашими интерфейсами iSCSI должен быть установлен на 9 000 метрических тонн наряду с каждым VMKernel. На Вашем VNXe создайте два Сервера iSCSI - один для SPA и один для SPB. Свяжите один IP для каждого первоначально. Затем посмотрите детали для каждого Сервера iSCSI и добавьте дополнительного дюйм/с для каждого активного интерфейса на SP. Это даст Вам циклическую производительность, которую Вы ищете.
Затем создают в минимальных двух хранилищах данных. Свяжите одно хранилище данных с iSCSIServer-SPA и один с iSCSIServer-SPB. Это гарантирует, что один из Вашего SP не находится там в неактивном.
Наконец, все интерфейсы на стороне ESX, которые используются для iSCSI, должны перейти к отдельному vSwitch со всеми интерфейсами как активные. Однако Вы захотите VMkernel для каждого, взаимодействует через интерфейс на стороне ESX в этом, определял vSwitch. Необходимо переопределить vSwitch порядок обработки отказа на каждый VMKernel, чтобы иметь один Активный адаптер и всех Неиспользованных других. Это - мой сценарий развертывания, который я использовал для настройки хостов ESX. Каждый хост имеет в общей сложности 8 интерфейсов, 4 для LAN и 4 для iSCSI/VMotion трафика.
a. #, которые DNS esxcli сетевой IP поиск DNS добавляет - сеть domain=mydomain.net
esxcli IP сервер DNS, добавляют - сеть server=X.X.X.X
esxcli, которую IP сервер DNS добавляет - server=X.X.X.X
b. # устанавливают обновление имени хоста соответственно
esxcli системный набор имени хоста - host=server1 - domain=mydomain.net
c. # добавляют, что восходящие каналы к сети vSwitch0 esxcli vswitch стандартный восходящий канал добавляют - uplink-name=vmnic1 - сеть vswitch-name=vSwitch0
esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic4 - сеть vswitch-name=vSwitch0
esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic5 - vswitch-name=vSwitch0
d. # создают vSwitch1 для устройства хранения данных и устанавливают MTU на 9 000
, esxcli сеть vswitch стандарт добавляет - сеть vswitch-name=vSwitch1
esxcli vswitch стандартный набор - vswitch-name=vSwitch1 - mtu=9000
e. # добавляют, что восходящие каналы к сети vSwitch1
esxcli vswitch стандартный восходящий канал добавляют - uplink-name=vmnic2 - сеть vswitch-name=vSwitch1
esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic3 - сеть vswitch-name=vSwitch1
esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic6 - сеть vswitch-name=vSwitch1
esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic7 - vswitch-name=vSwitch1
f. # устанавливают активный NIC для сети vSwitch0
esxcli vswitch стандартный набор обработки отказа политики - vswitch-name=vSwitch0 - active-uplinks=vmnic0, vmnic1, vmnic4, vmnic5
г. # устанавливают активный NIC для сети vSwitch1
esxcli vswitch стандартный набор обработки отказа политики - vswitch-name=vSwitch1 - active-uplinks=vmnic2, vmnic3, vmnic6, vmnic7
ч. # создают группы портов для iSCSI и vmkernels для ESX01 не, сеть ESX02
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic2 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk2 - portgroup-name=iSCSI-vmnic2 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk2 - ipv4=192.158.50.152 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk2
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic3 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk3 - portgroup-name=iSCSI-vmnic3 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk3 - ipv4=192.158.50.153 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk3
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic6 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk6 - portgroup-name=iSCSI-vmnic6 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk6 - ipv4=192.158.50.156 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk6
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic7 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk7 - portgroup-name=iSCSI-vmnic7 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk7 - ipv4=192.158.50.157 - netmask=255.255.255.0 - энергия-cmd type=static
hostsvc/vmotion/vnic_set vmk7
я. # создают группы портов для iSCSI и vmkernels для ESX02 не, сеть ESX01
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic2 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk2 - portgroup-name=iSCSI-vmnic2 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk2 - ipv4=192.168.50.162 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk2
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic3 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk3 - portgroup-name=iSCSI-vmnic3 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk3 - ipv4=192.168.50.163 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk3
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic6 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk6 - portgroup-name=iSCSI-vmnic6 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk6 - ipv4=192.168.50.166 - netmask=255.255.255.0 - сеть энергии-cmd type=static
hostsvc/vmotion/vnic_set vmk6
esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic7 - интерфейс IP сети vswitch-name=vSwitch1
esxcli добавляет - interface-name=vmk7 - portgroup-name=iSCSI-vmnic7 - IP сети mtu=9000
esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk7 - ipv4=192.168.50.167 - netmask=255.255.255.0 - энергия-cmd type=static
hostsvc/vmotion/vnic_set vmk7
j. # устанавливают активный NIC для каждой сети iSCSI vmkernel
esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic2 - сеть active-uplinks=vmnic2
esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic3 - сеть active-uplinks=vmnic3
esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic6 - сеть active-uplinks=vmnic6
esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic7 - active-uplinks=vmnic7
К. # создают группы портов
, esxcli сеть vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork1 - сеть vswitch-name=vSwitch0
esxcli vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork2 - сеть vswitch-name=vSwitch0
esxcli vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork3 - vswitch-name=vSwitch0
л. # устанавливают VLAN на группы портов VM
esxcli сеть vswitch стандарт portgroup-p VMNetwork1 набора - сеть идентификатора VLAN ##
esxcli vswitch стандарт portgroup-p VMNetwork2 набора - сеть идентификатора VLAN ##
esxcli vswitch стандарт portgroup-p VMNetwork3 набора - идентификатор VLAN ###
м. # удаляют сеть VM portgroup
esxcli по умолчанию vswitch, стандарт portgroup удаляют - portgroup-имя = "-v=vSwitch0
n" Сети VM. # включают адаптер хранения iSCSI
esxcli iscsi набор программного обеспечения - enabled=true
esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk2
esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk3
esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk6
esxcli iscsi networkportal добавляет-A vmhba33-n vmk7
o. # переименовывают локальное хранилище данных
имя хоста> $var =
локальная энергия-cmd hostsvc/datastore/rename datastore1 - $var
p. Собственный компонент #Define Много Плагин Типа массива хранения Пути для EMC VNXe 3300 и циклического алгоритма мелодии IOPS от 1 000 до 1
esxcli устройство хранения данных nmp satp правило добавляет - satp = "VMW_SATP_DEFAULT_AA" - поставщик = "EMC"-P "VMW_PSP_RR"-O "iops=1"
q. Обновление #, объединяющееся в сеть
esxcli обновление сетевого брандмауэра
энергия-cmd hostsvc/net/refresh
a. Конфигурация-> Конфигурация Времени-> Свойства-> Опции-> Настройки NTP-> Добавляют-> ntp.mydomain.net-> Проверка "Перезапуск сервис NTP для применения изменений"-> хорошо-> wait†¦->, Выбор "Запускается и останавливается с хостом"-> хорошо->, Проверка "клиент NTP Включила->, Хост перезагрузки OK
Возобновляет EMC Настройка устройства хранения данных VNXe, возвращается к этому руководству когда завершенный
Вход в систему vSphere клиента на хост
Обновление каждое Хранилище данных к VMFS-5
a. Конфигурация-> устройство хранения данных-> Хранилище данных Выделения-> Обновление VMFS-5
В настоящее время есть несколько хороших вариантов решения этой проблемы. Утилита RAID на основе HP BIOS предназначена только для быстрой и простой настройки логических дисков . Для более сложных конфигураций необходимо использовать одно из следующих:
HP SmartStart и Пакет обновления для загрузочных дисков ProLiant позволяют выполнять тонкую настройку массива при загрузке сервер в автономную среду конфигурации Linux.
Новый автономный компакт-диск с служебной программой настройки массивов - это загрузочный компакт-диск емкостью 100 МБ и более быстрый способ выполнить начальную настройку. Он загружается либо в инструмент командной строки ACU, либо в полный графический интерфейс ACU.
Загрузочный диск Linux с утилитой hpacucli
был моим старым подходом до того, как я начал использовать загрузочные компакт-диски HP.
Моя типичная установка VMware ESXi будет выглядеть так, как показано ниже, где я бы выделил логический диск емкостью 16 ГБ или 18 ГБ для ESXi, на котором он будет жить, а остальное отдаю VMFS:
/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config
Smart Array P410i in Slot 0 (Embedded) (sn: 5001438010A99E30)
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (18.0 GB, RAID 1+0, OK)
logicaldrive 2 (392.1 GB, RAID 1+0, OK)
physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)
SEP (Vendor ID PMCSIERA, Model SRC 8x6G) 250 (WWID: 5001438010A99E3F)
После того, как вы установили ESXi, вы должны добавление пакетов драйверов HP CIM и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и настройки массива.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config
Smart Array P410i in Slot 0 (Embedded) (sn: 5001438010A99E30)
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (18.0 GB, RAID 1+0, OK)
logicaldrive 2 (392.1 GB, RAID 1+0, OK)
physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)
SEP (Vendor ID PMCSIERA, Model SRC 8x6G) 250 (WWID: 5001438010A99E3F)
После того, как вы установили ESXi, вы должны добавить драйверы HP CIM и Пакеты HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config
Smart Array P410i in Slot 0 (Embedded) (sn: 5001438010A99E30)
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (18.0 GB, RAID 1+0, OK)
logicaldrive 2 (392.1 GB, RAID 1+0, OK)
physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)
SEP (Vendor ID PMCSIERA, Model SRC 8x6G) 250 (WWID: 5001438010A99E3F)
После того, как вы установили ESXi, вы должны добавить драйверы HP CIM и Пакеты HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config
Smart Array P410i in Slot 0 (Embedded) (sn: 5001438010A99E30)
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (18.0 GB, RAID 1+0, OK)
logicaldrive 2 (392.1 GB, RAID 1+0, OK)
physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)
SEP (Vendor ID PMCSIERA, Model SRC 8x6G) 250 (WWID: 5001438010A99E3F)
После того, как вы установили ESXi, вы должны добавить пакеты HP CIM drivers и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config
Smart Array P410i in Slot 0 (Embedded) (sn: 5001438010A99E30)
array A (SAS, Unused Space: 0 MB)
logicaldrive 1 (18.0 GB, RAID 1+0, OK)
logicaldrive 2 (392.1 GB, RAID 1+0, OK)
physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)
SEP (Vendor ID PMCSIERA, Model SRC 8x6G) 250 (WWID: 5001438010A99E3F)
После того, как вы установили ESXi, вы должны добавить пакеты HP CIM drivers и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.
Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.
Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.