масштабируемое решение для устройства хранения данных с помощью ZFS: OSOL / Nexenta?

Это - ошибка, которую Вы ожидали бы от хоста, являющегося firewalled. Можете Вы telnet к тому же порту на том IP?

1
задан 6 October 2010 в 11:12
3 ответа

ZFS не является кластерной файловой системой, это наверняка, так может использоваться для доступа единственного сервера, но не для нескольких. Это сказало, что делает замечательное основание для некластеризованного NAS.

Что касается вопроса о Nexenta - да можно масштабировать его очень хорошо от маленького до очень большого довольно легко.

Для производительности я испытал бы желание придерживаться единственного ядра процессора 4-6, Вы не извлечете выгоду из значительно большего количества ядер. Попытайтесь получить по крайней мере 4 ГБ, таким образом, у Вас будет хороший большой кэш. Используйте Двойной, объединял NICs в команду. Когда выбор контроллеров выбирает фирменный знак, Вы не можете действительно пойти не так, как надо с Adaptec, удостоверьтесь, что это поддерживает представление всех дисковых сырых данных, когда в режиме JBOD (т.е. если у Вас есть 16 дисков, появляется как 16 дисков, что большинство из них поддерживается на контроллер). Всегда идите SAS, а не SATA (хотя те новые диски RE3 довольно хороши и являются подлинными дисками 24/365 также). Удостоверьтесь, что Вы получаете двойные источники питания. Если возможное применение, которое двухпортовые диски SAS и гарантируют обоим путям, живо. Установите любое предупреждение/контроль, Вы можете с controller/s для сообщения СРАЗУ, когда у Вас есть мертвый диск и т.д. О, и купите по крайней мере один резервный диск, который будет сохранен 'холодно' и если у Вас может быть другой набор как 'горячее' резервное устройство.

Кроме этого продолжают его :)

1
ответ дан 3 December 2019 в 17:23
  • 1
    привет, DL370G6 с Xeon 55xx, 16 ГБ RAM + MDS 600 как JBOD. Этот JBOD имеет 46 дисков 15K... 4 порта SAS. DL может иметь 4 NICs на 1 ГБ... мне нужен больше для соединения 4 клиентов/потребителей? может OSOL / Nexenta, гибрид настраивает? это - iscsi, NFS или CIFS от того же поля? –  John-ZFS 6 October 2010 в 15:12
  • 2
    Пойдите для E5630, если Вы можете, он быть хорошим балансом стоимости/тепла/производительности/цены. Не делайте 16 ГБ памяти, те микросхемы не работают как этот, они повышаются в 3 микросхемах на физический ЦП за один раз (т.е. для единственного CPU поле получает 3 x 1 ГБ, 3 x 2 ГБ, 3 x 4 ГБ и т.д. не 2 x что-то или 4 x что-то), 12 ГБ будут прекрасны. Поддержка HP, что поле с Солярисом, таким образом, это хорошо, все драйверы, должно быть там - возможно, должна была бы проверить драйверы на дисковый контроллер, поскольку ни один из P212/P411/P812 официально не поддерживает Солярис - для какой модели Вы идете? 370 действительно имеет 4 NICs, nic объединяющийся в команду поддерживается также, таким образом, Вы в порядке –  Chopper3 6 October 2010 в 15:28
  • 3
    спасибо за Вашу ценную обратную связь. P410 с 512 кэшами. что-нибудь для волнения об интерфейсных платах SAS на MDS600? также размышление о HP произгибается 3500yl переключатель-layer3 Гбита. в целом действительно ли это - базирующееся решение приятно сбалансированного ZFS? –  John-ZFS 6 October 2010 в 15:31
  • 4
    P410 является внутренним только карта - Вам будет нужен внешний с коннекторами мини-SAS для управления 600. 212/411 и 812 являются теми, Вы ищете. Мое единственное беспокойство является отсутствием официальной поддержки драйвера Соляриса тех трех карт - могло бы быть выяснение работы HP непосредственно или выполнение небольшого количества поиска с помощью Google. Я знаю, что почти ничто из HP не переключается извините, я - человек Cisco до конца когда дело доходит до сетей. Возможно, задайте какие-либо вопросы о HP как другой вопрос? –  Chopper3 6 October 2010 в 16:30
  • 5
    похож на HP P410, основан на Сьерра чипсете PMC. вероятно, поддерживаемый opensolaris: opensolaris.org/jive/thread.jspa?messageID=458335 –  John-ZFS 9 October 2010 в 10:05

я на самом деле создаю эти виды систем для жизни.

Набор SuperMicro работает отлично. Останьтесь с Intel для NIC. Используйте SSD для ZIL (зеркально отразите это для пользы богов), и L2ARC. Чередуйте RAIDz2 через JBOD и целый массив для предоставления, Вы сам макс. безопасность. Дедупликации будут нужны по крайней мере 24 ГБ RAM, использовать Зарегистрированный ECC DDR3 и бросить деньги в это и несколько 5660, если Вы можете!

Можно действительно начать с малого - что-то как http://www.supermicro.com/products/chassis/3U/?chs=836 (необходимо будет купить mobo, мадам и proc для этого).

Или смотрите на http://www.va-technologies.com/sbb

3
ответ дан 3 December 2019 в 17:23
  • 1
    , я не могу пойти с SuperMicro, у нас есть соглашение с HP, и я выбрал DL370 G6 + MDS600 для решения NAS на основе ZFS/Nexenta. MDS600 имеет 4 порта SAS... DL370 G6 имеет 4 порта NIC, мне нужен больше? –  John-ZFS 6 October 2010 в 15:09
  • 2
    Вы соединяющийся от MSD6000 до DL370 и затем служащий из 4NIC? 1GbE? Свяжите их для лучшей пропускной способности или пойдите для 10GbE, я предложил бы. Удостоверьтесь, что у Вас есть Intel NIC, как поддержка broadcom на OpenSolaris - в данный момент, это работалось на - ниже среднего. –  Khushil 6 October 2010 в 17:47

Nexentastor теперь предлагает плагин Namespace Cluster для использования с их версией Enterprise-сервера. У меня нет личного опыта использования этого плагина, но он должен позволить вам горизонтально масштабировать дополнительные серверы Nexentastor в один кластер, который действует как одна файловая система через NFS. Похоже, вы переносите данные между серверными узлами без вмешательства пользователя и можете управлять всеми серверами в кластере с одного узла.

Вот страница продукта Nexenta о плагине с более подробной информацией: http://www.nexenta.com/corp/namespace-plugin

Используя этот плагин, вы можете не только добавить больше корпусов JBOD к головному устройству, но также можете добавить больше головных устройств для балансировки нагрузки. по кластеру.

1
ответ дан 3 December 2019 в 17:23

Теги

Похожие вопросы