Сервер CloudLinux не загружается [закрыто]

У меня есть сервер cPanel, работающий под управлением Cloud Linux, это выделенный сервер, на котором изначально работали CentOS 6.4 и SoftRaid 1. Я перевел его на CloudLinux после свежей переустановки. У меня не было необходимости перезапускать его, до этого момента. Все работало гладко, но когда я перезагрузил сервер, он выключился, но не восстановился. Провайдер перевел его в режим спасения, поскольку я не могу использовать ни KVM, ни IPMI. Я провел тест оборудования, и все в порядке. Я попробовал переустановить GRUB, но это ничего не изменило. Сервер по-прежнему не загружается. На данный момент у меня нет идей. Провайдер - неуправляемый, переустановку я оставляю как последнее средство.

Я использовал этот учебник для переустановки GRUB: http://www.adminlinux.org/2009/10/how-to-reinstall-grub-while-in-rescue.html

EDIT:

Провайдер сказал мне, что это появляется на экране во время загрузки:

*An error occurred during the file system check*
*Dropping you to a shell; the system will reboot*

Я провел некоторое исследование и мне нужно запустить fsck.

Когда я пытаюсь запустить fsck /dev/sda1, я получаю следующее:

root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
fsck: fsck.linux_raid_member: not found
fsck: Error 2 while executing fsck.linux_raid_member for /dev/sda1

Это когда диск смонтирован, затем я попробовал размонтировать его,

root@rescue [/]# fsck /dev/sda1
fsck from util-linux-ng 2.17.2
/dev/sda1 is in use.
Aborted

Я делаю все это в режиме спасения.

У меня 2 диска по 1 ТБ в рейде 1, вот fstab:

# <file system> <mount point>   <type>  <options>       <dump>  <pass>
/dev/md1        /       ext3    errors=remount-ro,usrjquota=quota.user,jqfmt=vfsv0      0       1
/dev/md3        /home   ext3    usrjquota=quota.user,jqfmt=vfsv0        1       2
/dev/sda2       swap    swap    defaults        0       0
/dev/sdb2       swap    swap    defaults        0       0
proc            /proc   proc    defaults                0       0
sysfs           /sys    sysfs   defaults                0       0
tmpfs       /dev/shm tmpfs  noexec,nosuid   0   0
devpts          /dev/pts        devpts  defaults        0       0
/tmp_fs /tmp ext3 noexec,nosuid,loop,rw 1 1

UPDATE:

Как предложил Bittylicious, я выполнил команды и вот результаты:

root@rescue:~# mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1
mdadm: /dev/sda1 is busy - skipping
mdadm: /dev/sdb1 is busy - skipping

Затем я предположил, что рейд уже собран, поэтому я сделал:

root@rescue:~# fsck /dev/md1
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/: recovering journal
Setting free inodes count to 9410644 (was 9410650)
Setting free blocks count to 35082532 (was 35082538)
/: clean, 190380/9601024 files, 3317196/38399728 blocks

UPDATE #2:

Вот результат монтирования:

root@rescue:~# mount
none on / type tmpfs (rw,relatime)
none on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
198.27.85.63:/home/pub/rescue.v7 on /nfs type nfs (ro,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
198.27.85.63:/home/pub/pro-power on /power type nfs (ro,nodev,relatime,vers=3,rsize=8192,wsize=8192,namlen=255,hard,nolock,proto=udp,port=2049,timeo=11,retrans=3,sec=sys,local_lock=all,addr=198.27.85.63)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev type tmpfs (rw,relatime,size=10240k,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=807512k,mode=755)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1615020k)
rpc_pipefs on /nfs/var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)

Вот результат fsck /dev/md3:

root@rescue:~# fsck /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/home: clean, 370962/50429952 files, 5187714/201693680 blocks

mkswap на sda2:

root@rescue:~# mkswap /dev/sda2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=b375ef52-9434-4298-be4a-38db9da029af

mkswap на sdb2:

root@rescue:~# mkswap /dev/sdb2
Setting up swapspace version 1, size = 16382972 KiB
no label, UUID=f9318100-c18d-4987-b4e8-6bc58b0c8299

UPDATE #3:

Я предполагаю, что Bittylicious упомянул /boot/grub/grub. conf, в таком случае:

default=0
timeout=5

        title CloudLinux Server (2.6.32-458.6.2.lve1.2.30.el6.x86_64)
        kernel /boot/vmlinuz-2.6.32-458.6.2.lve1.2.30.el6.x86_64 root=/dev/md1 $
        root (hd0,0)
        initrd /boot/initramfs-2.6.32-458.6.2.lve1.2.30.el6.x86_64.img
        title linux centos6_64
        kernel /boot/vmlinuz-2.6.32-358.18.1.el6.x86_64 root=/dev/md1  ro
        root (hd0,0)
        initrd /boot/initrd-2.6.32-358.18.1.el6.x86_64.img

Я также попробовал восстановить initramfs. Я следовал этому руководству: http://advancelinux.blogspot.com/2013/06/how-to-rebuild-initrd-or-initramfs-in.html

0
задан 9 October 2013 в 15:55
1 ответ

Есть так много причин, по которым он не может загрузиться. Мы все могли бы перечислить ряд причин (и я это сделаю), но, в конце концов, должен быть какой-то способ заставить вашего поставщика помочь. Даже если они просто прочитают то, что написано на консоли, это даст множество подсказок о том, как это исправить.

На данный момент я предлагаю:

  • Вы не настроили initramfs / initrd, но все же указываете it
  • Вы указали один, но он не содержит соответствующих драйверов для монтирования вашей корневой файловой системы.
  • Вы используете гипервизор, который не может загрузить образ initrd / ramfs / ядра в сжатом формате. в

Большинство неуправляемых провайдеров предоставляют поддержку, даже если она платная. Я предлагаю вам раскошелиться, так как вы потратите слишком много времени, пытаясь угадать это без какого-либо доступа к ядру.

Обновление 1 - теперь, когда вы добавили информацию fsck, это довольно просто. Вы пытаетесь запустить fsck на члене RAID - это не сработает. Что вам нужно сделать, так это сначала собрать RAID-массив (а затем, возможно, запустить на нем fsck).

Почему вы все равно запускаете fsck на / dev / sda1? Вероятно, вам нужно сделать что-то вроде:

mdadm --assemble /dev/md1 /dev/sda1 /dev/sdb1

(при условии, что sda1 и sdb2 являются вашими участниками RAID)

Если это сработало, вы можете запустить fsck на / dev / md1. Что вам действительно нужно выяснить, так это почему ваша ОС не смонтировала RAID-массив. Я предполагаю, что он деградирован, и вам нужно добавить «bootdegraded» к параметрам ядра.

Обновление 2 - Давайте узнаем больше:

  1. Когда вы переустановили GRUB, знаете ли вы, что содержимое вашего grub. cfg или boot. lst, чтобы мы могли определить ваши варианты загрузки?

  2. Вы пытались перестроить initramfs (update-initramfs -k all -u только для начала)

2
ответ дан 4 December 2019 в 14:05

Теги

Похожие вопросы