Базовой вещью, которая позволяет LVM и Набегу программного обеспечения в работе Linux, является часть картопостроителя устройства ядра. Это - то, какие краткие обзоры адреса блока физических устройств к виртуальным блочным устройствам, которые Вы используете.
При использовании LVM в качестве с чем-либо когда дело доходит до данных действительно необходимо знать о последствиях доступности данных. Но это вовсе не значит это, LVM опасен на самом деле, когда надлежащие методы используются, это - влияние на доступность, минимально.
В сценарии Вы предлагаете в своем вопросе, доступность Ваших данных совпала бы с RAID0 где, если какие-либо сбои диска это приведет к потере данных.
На практике я не использовал бы LVM, не выполняя его на своего рода RAID. Я использовал LVM на файловом сервере на 30 ТБ, который имел приблизительно 20 Аппаратных средств объемы RAID5 в одном VG. Но если у Вас есть достаточно свободных Степеней, можно использовать pvmove для миграции данных от одного или нескольких, PV должен он начинать давать Вам проблемы.
Но всегда имейте стратегию резервного копирования на месте, которая время от времени тестируется.
Ну, давайте посмотрим на некоторые большие проблемы изображения перед вхождением в детали конфигурации JRun.
Если Вы получаете java.lang. Исключения OutOfMemoryError в журнале ошибок JRun, ну, в общем, Вы вне памяти. Никакой upvote для этого, ;-). Вы не сказали, работали ли Вы 32-или 64-разрядный Windows, но Вы действительно говорили, что у Вас есть 8 ГБ RAM, так, чтобы оказал некоторое влияние на ответ. Выполняете ли Вы 32-, или 64-разрядная JVM (и что версия) также повлияет на вещи. Таким образом, это - несколько ответов, которые помогут нам добраться до сути относительно этого.
Независимо, Ваше приложение исчерпывает память. Это исчерпывает память по одному или нескольким из этих причин:
Другие вещи иметь в виду: в 32-разрядном Windows 32-разрядная JVM может только выделить приблизительно 1,4 ГБ памяти. Я не вспоминаю первое, что пришло на ум, если 32-разрядная JVM в 64-разрядном Windows имеет ограничение меньше, чем теоретические 4 ГБ макс. для какого-либо 32-разрядного процесса.
ОБНОВЛЕННЫЙ
Я считал сообщение в блоге, связанное через TalkingTree и другое сообщение, связанное в рамках того сообщения также. Я не столкнулся с этим точным случаем, но у меня действительно было следующее наблюдение: метрический вход JRUN не может записать "макс. значения", Вы процитировали в период пикового использования потока. Я думаю, что это регистрирует метрики в фиксированном, повторяющемся интервале. Это хорошо для показа, что Вы сглаживаете, средние рабочие характеристики Вашего приложения, но оно не может получить состояние JRUN прямо, прежде чем Ваше состояние ошибки начнет происходить.
Не зная о внутренних работах управления потоком JRUN, я все еще говорю, что это действительно вне памяти. Возможно, это не вне памяти, потому что Ваше приложение должно было выделить память на "куче" JVM, и ни один не был доступен, но это вне памяти, потому что JRUN пыталась создать другой поток для обрабатывания входящего запроса, и память "кучи", необходимая для поддержки другого потока, не была доступна - другими словами, потоки не свободны - они требуют памяти "кучи" также.
Ваши опции, кажется, следующим образом:
Независимо от опции Вы преследуете, я думаю, что допустимая фиксация здесь будет экспериментальной по своей природе. Вы оказываетесь перед необходимостью вносить изменение и видеть то, что влияет на него, имеет на приложении. У Вас есть тестовая среда загрузки, правильно?
Попытайтесь уменьшить максимальный размер "кучи". Каждый поток требует собственных ресурсов (наряду с Java собственный материал). Применимый виртуальный AS составляет 2 ГБ; 1.2 ГБ резервируются для "кучи". Часть остающихся 800 МБ используется для кода (сегменты текста Java, и все потребовали DLLs), затем существуют собственные выделения, требуемые JRE и его зависимостями... и потоками: поскольку каждый поток на 1 МБ по умолчанию AS резервируется (хотя просто страница на самом деле фиксируется), 100 потоков = 100 МБ (только для стеков). Теперь добавьте немного дополнительное пространство между различными частями, некоторой фрагментацией... OOM ;-)