Подобные признаки обычно вызываются функциональным загрузчиком, но он не может найти ядро. Я предположу, что Вы также попытались загрузить опцию ESX Recovery GRUB и нашли, что она не работала.
Учитывая Вы только что восстановили массив, я был бы обеспокоен, что восстанавливание было разрушительным и полило из шланга Ваше поле.
Если это было восстановлено для замены мертвого диска, это маловероятно, но конечно не из области возможности для платы RAID с ошибками или другой формой аппаратной глупости. Если это было восстановлено для изменения уровней RAID, почти бесспорно, что массив полит из шланга.
Попытайтесь создать карту с интерфейсом USB ESXI и начальную загрузку от этого; Вы можете убеждать это читать Ваше устройство хранения данных для наблюдения то, что оставляют на диске.
Если и хранилища данных Вашего VM VMFS неповреждены, Вы могли бы использовать ESXI, чтобы выполнить их до Вашего следующего окна обслуживания или переустановить ESX для восстановления полной функциональности (старающийся очень не уничтожить хранилища данных).
Удачи.
Это было обсуждено в списке freebsd-вопросов в ноябре 2008. Заключить в кавычки от Erik Trulsson:
Каждый i-узел на диске содержит поле, говорящее, сколько жестких ссылок указывает на это на inode. Это поле является 16-разрядным значением (со знаком), означая, что максимальное количество позволенного hardlinks 32767. Каждый созданный подкаталог содержит hardlink ('.. ') к его родителю, таким образом ограничивая количество подкаталогов к единственному каталогу меньше чем к 32 767.
Обратите внимание, что это не ограничивает количество файлов, которые Вы можете иметь в единственном каталоге, так как нормальные файлы не содержат hardlinks к родительскому каталогу, но существуют, конечно, пределы общему количеству файлов и каталогов, которые Вы можете иметь в единственной файловой системе на основе того, сколько inodes было создано, когда файловая система была сначала создана.
(Полное сообщение, запустите потока),
Это теоретические пределы; как обсуждено выше, Вы начнете сталкиваться с проблемами производительности перед ударом любых пределов.
Я сделал некоторые вещи с freebsd 6.x, который включил большие количества файлов (50,000 +), и не помните определенные ограничения. Быстрая проверка в 7,2 системах показывает предел, чтобы быть хорошо более чем 100 000. Процесс все еще работает на данный момент, когда он перестанет работать, я сообщу то, что жесткий предел для 7,2, который, вероятно, подобен 6.x.
Тем не менее Вы видите огромный хит производительности приблизительно по 30 000 записей каталога при создании новых файлов / каталоги. В той точке люди начинают создавать файлы по имени HashOfName/name вместо просто имени, таким образом, Вы делаете поиски легче.
Я ожидал бы что число варьироваться на основе типа файловой системы, включенной также.
На Ваш вопрос уже отвечают, поэтому просто мало подсказки по производительности: Если у Вас есть много маленьких файлов, необходимо увеличить vfs.ufs.dirhash_maxmem, 2 МБ по умолчанию является слишком маленьким для тысяч файлов.
У меня есть такая строка в моем/etc/sysctl.conf
vfs.ufs.dirhash_maxmem=67108864
Можно читать о dirhash здесь (улучшения UFS BSDCON) и здесь (Wiki)
Общее количество inodes является пределами общих файлов, можно вставить каталог. Общее количество inodes создается при форматировании жесткого диска. Можно сделать больше inode при помощи небольшого размера сегментов. Посмотрите человека newfs для детали.
vfs.ufs.dirhash_maxmem для памяти, используемой для содержания имен каталогов в каталоге. Это только влияет на производительность, ничто ограничения. Если у Вас есть больше памяти, сделайте ее больше, иначе не беспокойте ее.