Я имею, просто устанавливают новый Узел SolusVM Xen в моем DC. Я попросил, чтобы они установили CentOS6 с программным обеспечением RAID 10 и 100 ГБ для укоренения затем остатка группе LVM для Xen. Все в программном обеспечении RAID 10. Сервер имеет диски на 4x1 ТБ.
Когда я работаю cat /proc/mdstat
Я получаю это:
Personalities : [raid10] [raid1]
md0 : active raid1 sdb1[1] sda1[0] sdc1[2](S) sdd1[3](S)
255936 blocks super 1.0 [2/2] [UU]
md2 : active raid1 sdb3[1] sdc3[2](S) sdd3[3](S) sda3[0]
4192192 blocks super 1.1 [2/2] [UU]
md1 : active raid10 sdc2[2](S) sdd2[3](S) sdb2[1] sda2[0]
104791552 blocks super 1.1 2 near-copies [2/2] [UU]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
Хорошо, так хорошие взгляды. Когда я работаю vgdisplay
хотя это говорит мне, что я имею 3.23 ТБ в наличии с RAID 10, я должен только иметь 1.7 к 1,8 доступным в макс. на LVM:
--- Volume group ---
VG Name VolGroup
System ID
Format lvm2
Metadata Areas 4
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 4
Act PV 4
VG Size 3.23 TiB
PE Size 32.00 MiB
Total PE 105888
Alloc PE / Size 0 / 0
Free PE / Size 105888 / 3.23 TiB
Их взятие навсегда для ответа на мой билет, запрашивающий, что произошло. Я, исправляются, действительно ли это - испорченная установка RAID 10 или является этим, каково это должно быть? Почему раз так?
Из предоставленной вами информации у меня сложилось впечатление, что группа томов создается из 4 разделов sd[abcd]2, а не из массива md1 raid. Вы должны запустить pvdisplay и/или pvs для подтверждения этого.
Если это верно, то можно удалить LV, VG и PVS из sd[abcd]2, перестроить RAID 10 и pvcreate /dev/md1; vgcreate ...
.