Я был там! В прошлом году я настроил подобный кластер (кроме моих полей, была Fujitsu), использование iSCSI SAN для Hyper V.
На самом деле дело не в этом трудно, но там будут препятствиями по пути. Если бы Вы соразмещаете, я определенно репетировал бы Вашу установку в серверной стойке в Вашем собственном помещении прежде, чем переместить его в центр обработки данных (я использовал звуконепроницаемый шкаф сервера для этого).
О, еще одна вещь в подготовке, Вы не упоминаете это, но одной вещью, которой я не обеспокоился бы, является начальная загрузка iSCSI, которая предлагается в некоторых системах iSCSI. Это - боль для установки, и это не всегда работает с redundnancy. Всегда лучше иметь один или два физических загрузочных диска на узлах так, чтобы, если у Вас есть проблема конфигурации сети или проблема iSCSI, можно было все еще загрузить их. Я использую маленькие твердотельные накопители (на 40 ГБ) в каждом из моих серверов для загрузочных дисков.
Вам определенно нужен отдельный AD DC. На самом деле я запустил с 3 кластеров узла и затем ограничил это 2 узлами плюс некластеризованный 'главный узел', который выполняет резервные копии на 2010 DPM и виртуализированном DC.
Вы упоминаете 6 портов, это может быть достаточно. Но позвольте мне illustate мой узел configutation, который имеет 10 портов:
*Часто указывается хулителями, что Microsoft официально не поддерживает объединяющийся в команду порт (тогда как VMware делает), но на самом деле официальное слово - то, что они не препятствуют ему, но просто чувствуют, что поддержка находится в руках поставщиков NIC. Я использую Intel NICs, которые имеют поколение ET, которые имеют определенные функции виртуальной сети, и я ищу работу очень хорошо с Hyper V. Они на самом деле позволяют Вам разделять команду между переключателями так, чтобы, если один из сбоев переключателей у Вас есть последовательный доступ команды, немного как MPIO, но для виртуальных машин.
Hyper V на самом деле действительно эластичен и хорош для использования. Я приблизился бы к Вашему заданию в этой последовательности: 1) Настройте узлы индивидуально, установите инициатора iSCSI, установите MPIO, дайте Ваши порты iSCSI, транспорт и heatbeat порты, порты управления различные адреса подсети.
2) Настроенные Hyper V и присваивают Ваши выбранные порты Вашей виртуальной сети, 3) Затем запускает кластерный мастер проверки и формируют кластер.
Необходимо всегда присваивать порты виртуальной сети сначала, потому что это препятствует тому, чтобы они использовались кластером. Это звучит парадоксальным, но в основном Вы собираетесь быть хранением Вашего агностика виртуальной сети к Вашей сети кластера. Это все еще дает Вам дублирование, не, волнуются - также. Но достигнуть этого (и нет никакого другого пути), Вы оказываетесь перед необходимостью иметь любого отдельный набор переключателей для Вашего кластера и hyper V (два каждый для redunancy), или необходимо будет настроить VLAN на переключателях. Я делаю последнего (использование VLAN, с которых снимают метку), и оно работает отлично.
Некоторые другие сообщения здесь предложили, чтобы Вы использовали консультанта, чтобы сделать эту работу. Если они знакомы с Hyper V, это может быть хорошей идеей. Это не дает Вам всестороннее знание, что Вы иначе получили бы от DIY, но это сэкономит Вам время. У меня было много времени в прошлом году, и я не смущен, чтобы признать, что мне потребовались несколько месяцев работы и понимания вещей разбудить все это и выполнение.
Удачи!
Ваш .bashrc не является источником других программ или сценариев. Так что псевдонимы недоступны. Обычно они предназначены только для ваших интерактивных оболочек. Вы можете указать ссылку на настоящую команду:
$ cd /path/to/your/gcc-bin
$ ln -s i486-linux-gnu-gcc-4.3 i486-linux-gnu-gcc
Команде ln
, вероятно, требуются права root.
Если путь не указан в вашем $ PATH
, вы должны добавить его. Посмотрите здесь .