Опции для управления Умным Массивом P400 на хосте ESXi 5

Создайте правило SATP для поставщика систем хранения под названием EMC, установите политику пути как Вокруг Robine и IOPS от значения по умолчанию от 1000 до 1. Это будет персистентностью через перезагрузки и в любое время новая EMC, iSCSI LUN представлены, это правило будет забрано. Чтобы это относилось к существующим iSCSI LUN EMC, перезагрузите хост.

esxcli storage nmp satp rule add --satp="VMW_SATP_DEFAULT_AA" \
  --vendor="EMC" -P "VMW_PSP_RR" -O "iops=1"

я играл вокруг с изменением IOPS между 1 - 3 и нахожу выполнение лучшего на единственном VM. Тем не менее, если у Вас есть много VM's, и много хранилищ данных, 1 не может быть оптимальным...

Быть уверенными у Вас есть каждый интерфейс на наборе VNXe к 9 000 метрических тонн. Кроме того, vSwitch с Вашими интерфейсами iSCSI должен быть установлен на 9 000 метрических тонн наряду с каждым VMKernel. На Вашем VNXe создайте два Сервера iSCSI - один для SPA и один для SPB. Свяжите один IP для каждого первоначально. Затем посмотрите детали для каждого Сервера iSCSI и добавьте дополнительного дюйм/с для каждого активного интерфейса на SP. Это даст Вам циклическую производительность, которую Вы ищете.

Затем создают в минимальных двух хранилищах данных. Свяжите одно хранилище данных с iSCSIServer-SPA и один с iSCSIServer-SPB. Это гарантирует, что один из Вашего SP не находится там в неактивном.

Наконец, все интерфейсы на стороне ESX, которые используются для iSCSI, должны перейти к отдельному vSwitch со всеми интерфейсами как активные. Однако Вы захотите VMkernel для каждого, взаимодействует через интерфейс на стороне ESX в этом, определял vSwitch. Необходимо переопределить vSwitch порядок обработки отказа на каждый VMKernel, чтобы иметь один Активный адаптер и всех Неиспользованных других. Это - мой сценарий развертывания, который я использовал для настройки хостов ESX. Каждый хост имеет в общей сложности 8 интерфейсов, 4 для LAN и 4 для iSCSI/VMotion трафика.

  1. Работают ниже конфигурации

a. #, которые DNS esxcli сетевой IP поиск DNS добавляет - сеть domain=mydomain.net

esxcli IP сервер DNS, добавляют - сеть server=X.X.X.X

esxcli, которую IP сервер DNS добавляет - server=X.X.X.X

b. # устанавливают обновление имени хоста соответственно

esxcli системный набор имени хоста - host=server1 - domain=mydomain.net

c. # добавляют, что восходящие каналы к сети vSwitch0 esxcli vswitch стандартный восходящий канал добавляют - uplink-name=vmnic1 - сеть vswitch-name=vSwitch0

esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic4 - сеть vswitch-name=vSwitch0

esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic5 - vswitch-name=vSwitch0

d. # создают vSwitch1 для устройства хранения данных и устанавливают MTU на 9 000

, esxcli сеть vswitch стандарт добавляет - сеть vswitch-name=vSwitch1

esxcli vswitch стандартный набор - vswitch-name=vSwitch1 - mtu=9000

e. # добавляют, что восходящие каналы к сети vSwitch1

esxcli vswitch стандартный восходящий канал добавляют - uplink-name=vmnic2 - сеть vswitch-name=vSwitch1

esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic3 - сеть vswitch-name=vSwitch1

esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic6 - сеть vswitch-name=vSwitch1

esxcli vswitch стандартный восходящий канал добавляет - uplink-name=vmnic7 - vswitch-name=vSwitch1

f. # устанавливают активный NIC для сети vSwitch0

esxcli vswitch стандартный набор обработки отказа политики - vswitch-name=vSwitch0 - active-uplinks=vmnic0, vmnic1, vmnic4, vmnic5

г. # устанавливают активный NIC для сети vSwitch1

esxcli vswitch стандартный набор обработки отказа политики - vswitch-name=vSwitch1 - active-uplinks=vmnic2, vmnic3, vmnic6, vmnic7

ч. # создают группы портов для iSCSI и vmkernels для ESX01 не, сеть ESX02

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic2 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk2 - portgroup-name=iSCSI-vmnic2 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk2 - ipv4=192.158.50.152 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk2

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic3 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk3 - portgroup-name=iSCSI-vmnic3 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk3 - ipv4=192.158.50.153 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk3

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic6 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk6 - portgroup-name=iSCSI-vmnic6 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk6 - ipv4=192.158.50.156 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk6

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic7 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk7 - portgroup-name=iSCSI-vmnic7 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk7 - ipv4=192.158.50.157 - netmask=255.255.255.0 - энергия-cmd type=static

hostsvc/vmotion/vnic_set vmk7

я. # создают группы портов для iSCSI и vmkernels для ESX02 не, сеть ESX01

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic2 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk2 - portgroup-name=iSCSI-vmnic2 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk2 - ipv4=192.168.50.162 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk2

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic3 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk3 - portgroup-name=iSCSI-vmnic3 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk3 - ipv4=192.168.50.163 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk3

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic6 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk6 - portgroup-name=iSCSI-vmnic6 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk6 - ipv4=192.168.50.166 - netmask=255.255.255.0 - сеть энергии-cmd type=static

hostsvc/vmotion/vnic_set vmk6

esxcli vswitch стандарт portgroup добавляет - portgroup-name=iSCSI-vmnic7 - интерфейс IP сети vswitch-name=vSwitch1

esxcli добавляет - interface-name=vmk7 - portgroup-name=iSCSI-vmnic7 - IP сети mtu=9000

esxcli соединяет интерфейсом с набором ipv4 - interface-name=vmk7 - ipv4=192.168.50.167 - netmask=255.255.255.0 - энергия-cmd type=static

hostsvc/vmotion/vnic_set vmk7

j. # устанавливают активный NIC для каждой сети iSCSI vmkernel

esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic2 - сеть active-uplinks=vmnic2

esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic3 - сеть active-uplinks=vmnic3

esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic6 - сеть active-uplinks=vmnic6

esxcli vswitch стандарт portgroup набор обработки отказа политики - portgroup-name=iSCSI-vmnic7 - active-uplinks=vmnic7

К. # создают группы портов

, esxcli сеть vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork1 - сеть vswitch-name=vSwitch0

esxcli vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork2 - сеть vswitch-name=vSwitch0

esxcli vswitch стандарт portgroup добавляет - portgroup-name=VMNetwork3 - vswitch-name=vSwitch0

л. # устанавливают VLAN на группы портов VM

esxcli сеть vswitch стандарт portgroup-p VMNetwork1 набора - сеть идентификатора VLAN ##

esxcli vswitch стандарт portgroup-p VMNetwork2 набора - сеть идентификатора VLAN ##

esxcli vswitch стандарт portgroup-p VMNetwork3 набора - идентификатор VLAN ###

м. # удаляют сеть VM portgroup

esxcli по умолчанию vswitch, стандарт portgroup удаляют - portgroup-имя = "-v=vSwitch0

n" Сети VM. # включают адаптер хранения iSCSI

esxcli iscsi набор программного обеспечения - enabled=true

esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk2

esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk3

esxcli iscsi networkportal добавляет, что-A vmhba33-n vmk6

esxcli iscsi networkportal добавляет-A vmhba33-n vmk7

o. # переименовывают локальное хранилище данных

имя хоста> $var =

локальная энергия-cmd hostsvc/datastore/rename datastore1 - $var

p. Собственный компонент #Define Много Плагин Типа массива хранения Пути для EMC VNXe 3300 и циклического алгоритма мелодии IOPS от 1 000 до 1

esxcli устройство хранения данных nmp satp правило добавляет - satp = "VMW_SATP_DEFAULT_AA" - поставщик = "EMC"-P "VMW_PSP_RR"-O "iops=1"

q. Обновление #, объединяющееся в сеть

esxcli обновление сетевого брандмауэра

энергия-cmd hostsvc/net/refresh

  1. , Настраивает клиента NTP с помощью vSphere Клиент для каждого хоста

a. Конфигурация-> Конфигурация Времени-> Свойства-> Опции-> Настройки NTP-> Добавляют-> ntp.mydomain.net-> Проверка "Перезапуск сервис NTP для применения изменений"-> хорошо-> wait†¦->, Выбор "Запускается и останавливается с хостом"-> хорошо->, Проверка "клиент NTP Включила->, Хост перезагрузки OK

  1. Возобновляет EMC Настройка устройства хранения данных VNXe, возвращается к этому руководству когда завершенный

  2. Вход в систему vSphere клиента на хост

  3. Обновление каждое Хранилище данных к VMFS-5

a. Конфигурация-> устройство хранения данных-> Хранилище данных Выделения-> Обновление VMFS-5

5
задан 28 January 2013 в 07:50
1 ответ

В настоящее время есть несколько хороших вариантов решения этой проблемы. Утилита RAID на основе HP BIOS предназначена только для быстрой и простой настройки логических дисков . Для более сложных конфигураций необходимо использовать одно из следующих:

Моя типичная установка VMware ESXi будет выглядеть так, как показано ниже, где я бы выделил логический диск емкостью 16 ГБ или 18 ГБ для ESXi, на котором он будет жить, а остальное отдаю VMFS:

/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config

Smart Array P410i in Slot 0 (Embedded)    (sn: 5001438010A99E30)

   array A (SAS, Unused Space: 0  MB)

      logicaldrive 1 (18.0 GB, RAID 1+0, OK)
      logicaldrive 2 (392.1 GB, RAID 1+0, OK)

      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
      physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
      physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)

   SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 250 (WWID: 5001438010A99E3F)

После того, как вы установили ESXi, вы должны добавление пакетов драйверов HP CIM и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и настройки массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

где я бы выделил логический диск емкостью 16 или 18 ГБ для ESXi, а остальное передал бы VMFS:

/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config

Smart Array P410i in Slot 0 (Embedded)    (sn: 5001438010A99E30)

   array A (SAS, Unused Space: 0  MB)

      logicaldrive 1 (18.0 GB, RAID 1+0, OK)
      logicaldrive 2 (392.1 GB, RAID 1+0, OK)

      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
      physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
      physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)

   SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 250 (WWID: 5001438010A99E3F)

После того, как вы установили ESXi, вы должны добавить драйверы HP CIM и Пакеты HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

где я бы выделил логический диск емкостью 16 или 18 ГБ для ESXi, а остальное передал бы VMFS:

/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config

Smart Array P410i in Slot 0 (Embedded)    (sn: 5001438010A99E30)

   array A (SAS, Unused Space: 0  MB)

      logicaldrive 1 (18.0 GB, RAID 1+0, OK)
      logicaldrive 2 (392.1 GB, RAID 1+0, OK)

      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
      physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
      physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)

   SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 250 (WWID: 5001438010A99E3F)

После того, как вы установили ESXi, вы должны добавить драйверы HP CIM и Пакеты HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

затем передайте остальное VMFS:

/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config

Smart Array P410i in Slot 0 (Embedded)    (sn: 5001438010A99E30)

   array A (SAS, Unused Space: 0  MB)

      logicaldrive 1 (18.0 GB, RAID 1+0, OK)
      logicaldrive 2 (392.1 GB, RAID 1+0, OK)

      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
      physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
      physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)

   SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 250 (WWID: 5001438010A99E3F)

После того, как вы установили ESXi, вы должны добавить пакеты HP CIM drivers и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

затем передайте остальное VMFS:

/opt/hp/hpacucli/bin # ./hpacucli ctrl all show config

Smart Array P410i in Slot 0 (Embedded)    (sn: 5001438010A99E30)

   array A (SAS, Unused Space: 0  MB)

      logicaldrive 1 (18.0 GB, RAID 1+0, OK)
      logicaldrive 2 (392.1 GB, RAID 1+0, OK)

      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SAS, 146 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SAS, 146 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SAS, 146 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SAS, 146 GB, OK)
      physicaldrive 2I:1:5 (port 2I:box 1:bay 5, SAS, 146 GB, OK)
      physicaldrive 2I:1:6 (port 2I:box 1:bay 6, SAS, 146 GB, OK)

   SEP (Vendor ID PMCSIERA, Model  SRC 8x6G) 250 (WWID: 5001438010A99E3F)

После того, как вы установили ESXi, вы должны добавить пакеты HP CIM drivers и HP Utilities . Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

Они предоставят вам отчеты по HP для VMware и , служебных программ командной строки HP ILO и конфигурации массива.

Это даст вам возможность полностью управлять массивом хранения из командной строки VMware.

Примечание:
PCI-passthrough контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.


Прохождение PCI контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.


Прохождение PCI контроллера Smart Array работает, если серверное оборудование поддерживает его. Рассматриваемая система слишком старая и не поддерживает ввод-вывод VMware VMDirectPath. В более новых системах ProLiant я полностью могу передать контроллер Smart Array или иным образом виртуальному гостю.

3
ответ дан 3 December 2019 в 01:52

Теги

Похожие вопросы