Долгосрочное решение состоит в том, чтобы использовать ACLS для разрешения www пользовательского доступа для записи к дереву каталогов и всем будущим каталогам, созданным в дереве.
Попробуйте этот URL для начала работы.
http://www.onlamp.com/pub/a/bsd/2005/09/22/FreeBSD_Basics.html
- Brian
Ну, Вы не могли бы верить этому, но я вытер свой сервер (этому было только 4 дня, таким образом, еще не было никаких важных данных), и установил распределение Proxmox VE (Debian 5.0 + Qemu-KVM + OpenVZ)
Ничего себе! Это чрезвычайно быстрее, чем VMware на Debian!!!
Существует различие, теперь я объясняю:
VMware хорош в руководящей RAM, неиспользованную RAM моего VM оставили свободной для другого VM. Но, IO заставит VM "зависнуть", ожидая эмулятора, пишущего в HDD. Так, если Ваши VM будут использовать жесткий диск, если у Вас не будет RAID 0+1 набор или физический жесткий диск для каждого VM, Вы будете разочарованы производительностью.
Вместо этого qemu-kvm не совместно использует неиспользованный поршень между хостами, или он делает намного более безрезультатно, чем VMware (как я видел от сети-ui обоих страусов эму), но, я думаю, что qemu будет кэшировать IO на поршне и затем запишет в HDD позже. (в сети-ui существует индикатор "IO delay: 5%" %), увеличение производительности действительно лучше!
Я видел это поведение, когда я присваиваю слишком много памяти VM's. Когда я запускаю VM, который захватывает память от хоста ОС выше некоторого порога, все умирает за исключением светодиода жесткого диска. Это берет возраст только для закрытия VM.
Подстройка объема потребляемой памяти VM's сделала чудеса для меня.
Это кажется, что что-то серьезно неправильно с Вашей установкой, потому что нет только никакого способа, которым должно потребоваться 40 минут для нескольких VMs для начальной загрузки.
Если диск, ввод-вывод является проблемой Ваш лучший выбор, должен добавить диски и выделить диск (или RAID-массив) к каждому VM.
Да, дисковая IO производительность VMware Server является обычно симпатичным дежурным блюдом. Я использую KVM на своем рабочем столе для локальной виртуализации, и мы используем соединение Xen и VMware ESX для виртуализации центра обработки данных при пристально слежении за KVM для той роли также.
Начальная загрузка двух VMs от того же жесткого диска вызовет перегрузку диска (головы, переходящие с места на место, используя больше времени, чем фактическое чтение данных), особенно если хост ОС будет на том же диске. Загрузите их отдельно для предотвращения этой перегрузки, и общее время начальной загрузки будет ниже.
Я всегда пытаюсь поместить свой VMs на отдельные диски и затем не выполняю параллельные действия ни с каким, который совместно использует диск (шпиндель) с другим VMs/OSs.
Вы установили драйверы VMware в госте ОС? В противном случае сделайте так.
Удостоверьтесь, что у Вас есть быстрая дисковая подсистема. В течение многих лет я выполнял четыре VMs на VMware Server 1.0 без проблем. Просто обновленный до 2, таким образом, я сообщу, как это идет, но до сих пор никакие проблемы туда также.
Одна вещь, которая значительно помогла мне с IO, переключалась от RAID1 до RAID10. Ночь и дневное различие.
Другая вещь, которую Вы могли попробовать, добавляет следующие строки к файлу конфигурации сервера VMware:
prefvmx.useRecommendedLockedMemSize = "TRUE"
prefvmx.minVmMemPct = "100"
И следующее в Ваши .vmx файлы:
sched.mem.pshare.enable = "FALSE"
mainMem.useNamedFile = "FALSE"
MemTrimRate = "0"
MemAllowAutoScaleDown = "FALSE"
См. это сообщение на форумах VMware.
Я все еще работаю над горлышком бутылки сам, но я вошел в vm BIOS и отключил всю память и настройки прежней версии, и у меня была 10-минутная начальная загрузка перспективы к почти нормальному.. для vm.. Я являюсь все еще ужасно отстающим с записями на диск и чтениями, но по крайней мере работами машины теперь.. о, и я действительно уменьшал память vm от концерта до 512 м, мое предположение является кэшированием BIOS, была проблема с медленными начальными загрузками (диск prob все еще продолжающий работать), рабочий стол работает хорошо, но доступ к диску........ ПЛОХО.