Может ли ceph обрабатывать аппаратные RAID-массивы (LUN) как диски OSD?

Я новичок в ceph и пытаюсь выяснить, поддерживает ли ceph аппаратные рейдовые HBA.

К сожалению, не удалось найти никакой информации. Я обнаружил, что для OSD рекомендуется использовать простые диски. Но это выдвигает требования к PCIe, интерфейсам диска к высокой пропускной способности, а требования к процессору очень высоки. Аппаратные RAID-контроллеры уже удовлетворили эти требования, и они обеспечивают высокую избыточность на основе настроек, не потребляя мой PCIe, CPU или любые другие ресурсы.

Таким образом, я хотел бы иметь локальный RAID-контроллер (-ы), который обрабатывает мои внутренние резервирование дисков на уровне контроллера (Raid 5, raid 6) независимо от уровня RAID, который мне нужен. Помимо того, какие RAID LUN я хотел бы использовать ceph для выполнения более высокого уровня репликации между: хост, шасси, стойка, ряд, центр обработки данных или все, что возможно или запланировано в CRUSH

Есть ли опыт в этой настройке?

Это рекомендуемая установка?

Есть ли подробная документация по этой аппаратной интеграции RAID?

8
задан 19 January 2018 в 17:56
3 ответа

Die aanbevole opstelling is om enkele skywe of uiteindelik skywe in RAID-1-pare te gebruik.

'n Enkele SAS-beheerder (of 'n RAID-beheerder in JBOD-modus) kan 'n paar honderd skywe bestuur sonder enige probleme.

Die gebruik van baie groot skikkings verslaan die doel van CEPH, naamlik om enkele punte van mislukkings en 'warm punte' te vermy. Dit sal ook u oortolligheid benadeel.

Gestel u wil 'n 1 PB CEPH-groep bou met 8 TB-skyfies met behulp van 36 skyfies-bedieners onderstel (gewone Supermicro-agtige hardeware). Kom ons vergelyk die opstellings met en sonder RAID in terme van opbergingskapasiteit en betroubaarheid:

  • Met RAID-6 benodig u 5 onderstelle (en 10 OSD's).

    • Elke onderstel het 2 18-skyfies RAID-skikkings.
    • U het 1024 TB beskikbare berging.
    • In geval van 'n meervoudige skyfongeluk, moet u 256 TB herbou.
  • Met CEPH en 5 onderstelle sal u 180 OSD's hê.

    • Beskikbare kapasiteit sal effens beter wees (met behulp van uitwissingskodering): 1152 TB
    • in geval van 'n meervoudige skyfongeluk, sal u slegs die aantal mislukte skywe moet herbou (tensy dit 'n hele bediener is, sal dit altyd minder as 256 TB wees).
-1
ответ дан 2 December 2019 в 23:04

Вы не можете иметь в виду, что должны. Маппинг RAID LUN'ов на Ceph возможен, но вы вводите один дополнительный слой абстракции и типа рендеринга, по крайней мере, части функционала Ceph бесполезен.

Похожий поток в их списке рассылки:

http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-September/021159. html

7
ответ дан 2 December 2019 в 23:04

Но это выдвигает требования к PCIe, к интерфейсам В настоящее время многие рабочие нагрузки системы хранения данных хорошо обслуживаются современными процессорами общего назначения и соединениями между собой.

Да, RAID-контроллер заботится о резервировании с горсткой дисков в одном шасси. Но это стоимость и сложность, когда вы запускаете уже избыточные многоузловые решения распределенного хранения данных, такие как Ceph. Зачем беспокоиться о зеркалировании физического диска, если Ceph уже имеет несколько копий?

Строительные блоки такого решения - это всего лишь куча дисков. Например, Open Compute Storage's Open Vault. 30 шпинделей в корпусе, прикрепленном к вычислительному узлу, состоящему, возможно, из пары дюжин процессорных ядер. Добавьте столько узлов, сколько нужно для масштабирования. Вы можете оставить этот вычислительный процессор выделенным под Ceph, если хотите максимизировать пропускную способность.

0
ответ дан 2 December 2019 в 23:04

Теги

Похожие вопросы