Postfix/ClamAV, не останавливающий вирусы под Virtualmin

Я не могу говорить с остальными, но Вы, кажется, смущены между 'распределенным механизмом устройства хранения данных' и 'распределенной файловой системой'. Они не то же самое, они не должны быть приняты за то же самое, и они никогда не будут тем же самым. Файловая система является способом отслеживать то, где вещи расположены на жестком диске. Механизм устройства хранения данных как hadoop является способом отслеживать блок данных, определенных ключом. Концептуально, не много различия. Проблема состоит в том, что файловая система является зависимостью механизма устройства хранения данных..., в конце концов, ей нужен способ записать в блочное устройство, не так ли?

Все, что в стороне, я могу говорить с использованием ocfs2 как распределенная файловая система в продуктивной среде. Если Вы не хотите песчаные детали, прекратите читать после этой строки: это довольно прохладно, но это может означать больше времени простоя, чем Вы думаете, что это делает.

Мы выполняли ocfs2 в продуктивной среде для нескольких прошлых лет. Это в порядке, но это не является большим для большого количества приложений. Необходимо действительно посмотреть требования и выяснить то, что они - Вы могли бы найти, что у Вас есть намного больше широты для отказов, чем Вы думали, что сделали.

Как пример, ocfs2 имеет журнал для каждой машины в кластере, это собирается смонтировать раздел. Так скажем, у Вас есть четыре веб-машины, и когда Вы делаете тот раздел с помощью mkfs.ocfs2, Вы указываете, что будет шесть общих количеств машин, чтобы дать себе некоторую комнату для роста. Каждый из тех журналов занимает место, которое уменьшает объем данных, который можно сохранить на дисках. Теперь, скажем, необходимо масштабироваться к семи машинам. В той ситуации необходимо удалить весь кластер (т.е. размонтировать все ocfs2 разделы), и используйте tunefs.ocfs2 утилиту для создания дополнительного журнала, при условии, что существует доступное пространство. Затем и только затем можете Вы добавлять седьмую машину к кластеру (который требует, чтобы Вы распределили текстовый файл остальной части кластера, если Вы не используете утилиту), возвратите все и затем смонтируйте раздел на всех семи машинах.

Посмотрите то, что я имею в виду? Это, как предполагается, высокая доступность, которая, как предполагается, означает 'всегда онлайн', но тут же у Вас есть набор времени простоя..., и бог запрещают, Вы переполнены для дискового пространства. Вы не хотите видеть то, что происходит, когда Вы переполняете ocfs2.

Следует иметь в виду, что evms, который раньше был 'предпочтительным' способом управлять ocfs2 кластерами, пошел путем птицы дронта в пользу clvmd и lvm2. (И хорошее избавление к evms.) Кроме того, heartbeat быстро собирается превратиться в проект зомби в пользу стопки openais/pacemaker. (В стороне: При реализации начальной кластерной конфигурации для ocfs2 можно указать 'pcmk' как кластерный механизм в противоположность heartbeat. Нет, это не документируется.)

Если это имеет значение мы вернулись к nfs, управляемой кардиостимулятором, потому что несколько секунд времени простоя или некоторые отбросили tcp пакеты, поскольку кардиостимулятор мигрирует, доля nfs к другой машине тривиальна сравненный на сумму времени простоя, которое мы видели основные операции совместно используемой памяти как счетные машины при использовании ocfs2.

0
задан 13 April 2010 в 17:22
1 ответ

Проверить /var/log/mail.log и удостоверьтесь, что почтовый поток действительно проходит моллюска, почтовые заголовки обычно отмечаются также.

Другая вещь проверить состоит в том, что это - моллюск 0.95 или более новый, и freshclam выполнение должно заразиться вирусом defs, более старые версии моллюска теперь заблокированы из-за пределов.

0
ответ дан 5 December 2019 в 17:43
  • 1
    I' m не уверенный точно, что было неправильным..., но после многого постфикса и clamd перезапусков сервера, it' s теперь работающий... –  Josh 5 May 2010 в 22:11

Теги

Похожие вопросы