У меня есть сервер cPanel, работающий под управлением Cloud Linux, это выделенный сервер, на котором изначально работали CentOS 6.4 и SoftRaid 1. Я перевел его на CloudLinux после свежей переустановки. У меня не было необходимости перезапускать его, до этого момента. Все работало гладко, но когда я перезагрузил сервер, он выключился, но не восстановился. Провайдер перевел его в режим спасения, поскольку я не могу использовать ни KVM, ни IPMI. Я провел тест оборудования, и все в порядке. Я попробовал переустановить GRUB, но это ничего не изменило. Сервер по-прежнему не загружается. На данный момент у меня нет идей. Провайдер - неуправляемый, переустановку я оставляю как последнее средство.
Я использовал этот учебник для переустановки GRUB: http://www.adminlinux.org/2009/10/how-to-reinstall-grub-while-in-rescue.html
EDIT:
Провайдер сказал мне, что это появляется на экране во время загрузки:
*An error occurred during the file system check*
*Dropping you to a shell; the system will reboot*
Я провел некоторое исследование и мне нужно запустить fsck.
Когда я пытаюсь запустить fsck /dev/sda1, я получаю следующее:
root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
fsck: fsck.linux_raid_member: not found
fsck: Error 2 while executing fsck.linux_raid_member for /dev/sda1
Это когда диск смонтирован, затем я попробовал размонтировать его,
root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
/dev/sda1 is in use.
Aborted
Я делаю все это в режиме спасения.
У меня 2 диска по 1 ТБ в рейде 1, вот fstab:
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md1 / ext3 errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0 0 1
/dev/md3 /home ext3 usrjquota=quota.user,jqfmt=vfsv0 1 2
/dev/sda2 swap swap defaults 0 0
/dev/sdb2 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
tmpfs /dev/shm tmpfs noexec,nosuid 0 0
devpts /dev/pts devpts defaults 0 0
/tmp_fs /tmp ext3 noexec,nosuid,loop,rw 1 1
UPDATE:
Как предложил Bittylicious, я выполнил команды и вот результаты:
root@rescue:~# mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1
mdadm: /dev/sda1 is busy - skipping
mdadm: /dev/sdb1 is busy - skipping
Затем я предположил, что рейд уже собран, поэтому я сделал:
root@rescue:~# fsck /dev/md1
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/: recovering journal
Setting free inodes count to 9410644 (was 9410650)
Setting free blocks count to 35082532 (was 35082538)
/: clean, 190380/9601024 files, 3317196/38399728 blocks
UPDATE #2:
Вот результат монтирования:
root@rescue:~# mount
none on / type tmpfs (rw,relatime)
none on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
198.27.85.63:/home/pub/rescue.v7 on /nfs type nfs (ro,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
198.27.85.63:/home/pub/pro-power on /power type nfs (ro,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev type tmpfs (rw,relatime,size=10240k,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=807512k,mode=755)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1615020k)
rpc_pipefs on /nfs/var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
Вот результат fsck /dev/md3:
root@rescue:~# fsck /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/home: clean, 370962/50429952 files, 5187714/201693680 blocks
mkswap на sda2:
root@rescue:~# mkswap /dev/sda2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=b375ef52-9434-4298-be4a-38db9da029af
mkswap на sdb2:
root@rescue:~# mkswap /dev/sdb2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=f9318100-c18d-4987-b4e8-6bc58b0c8299
UPDATE #3:
Я предполагаю, что Bittylicious упомянул /boot/grub/grub. conf, в таком случае:
default=0
timeout=5
title CloudLinux Server (2.6.32-458.6.2.lve1.2.30.el6.x86_64)
kernel /boot/vmlinuz-2.6.32-458.6.2.lve1.2.30.el6.x86_64 root=/dev/md1 $
root (hd0,0)
initrd /boot/initramfs-2.6.32-458.6.2.lve1.2.30.el6.x86_64.img
title linux centos6_64
kernel /boot/vmlinuz-2.6.32-358.18.1.el6.x86_64 root=/dev/md1 ro
root (hd0,0)
initrd /boot/initrd-2.6.32-358.18.1.el6.x86_64.img
Я также попробовал восстановить initramfs. Я следовал этому руководству: http://advancelinux.blogspot.com/2013/06/how-to-rebuild-initrd-or-initramfs-in.html
Есть так много причин, по которым он не может загрузиться. Мы все могли бы перечислить ряд причин (и я это сделаю), но, в конце концов, должен быть какой-то способ заставить вашего поставщика помочь. Даже если они просто прочитают то, что написано на консоли, это даст множество подсказок о том, как это исправить.
На данный момент я предлагаю:
Большинство неуправляемых провайдеров предоставляют поддержку, даже если она платная. Я предлагаю вам раскошелиться, так как вы потратите слишком много времени, пытаясь угадать это без какого-либо доступа к ядру.
Обновление 1 - теперь, когда вы добавили информацию fsck, это довольно просто. Вы пытаетесь запустить fsck на члене RAID - это не сработает. Что вам нужно сделать, так это сначала собрать RAID-массив (а затем, возможно, запустить на нем fsck).
Почему вы все равно запускаете fsck на / dev / sda1? Вероятно, вам нужно сделать что-то вроде:
mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1
(при условии, что sda1 и sdb2 являются вашими участниками RAID)
Если это сработало, вы можете запустить fsck на / dev / md1. Что вам действительно нужно выяснить, так это почему ваша ОС не смонтировала RAID-массив. Я предполагаю, что он деградирован, и вам нужно добавить «bootdegraded» к параметрам ядра.
Обновление 2 - Давайте узнаем больше:
Когда вы переустановили GRUB, знаете ли вы, что содержимое вашего grub. cfg или boot. lst, чтобы мы могли определить ваши варианты загрузки?
Вы пытались перестроить initramfs (update-initramfs -k all -u только для начала)