Это, возможно, имело некоторое отношение к недавнему изменению в пароле административной учетной записи.
Я удалил все "запланированные задачи", связанные с процессом резервного копирования, и воссоздал их с, "добавьте запланированная задача" мастер. При помощи мастера резервного копирования затем, если, я смог настроить все, поскольку я хотел это через интерфейс ntbackup, и теперь имейте также полную команду ("ntbackup.exe...") в списке задач. Установив выполнение как материал правильно, это теперь хорошо работает - и sbs средства восстановления работают также.
Я делаю много VMware, консультируясь с работой, и я сказал бы, что проценты ближе к 80% установленной основной высоконадежной совместно используемой памяти использования (FC, iSCSI или NAS высокого класса), и большим количеством моих клиентов является SME. Ключевой фактор, который я нашел, - рассматривает ли бизнес свой сервер время как очень важный или нет, для большинства компаний сегодня это.
Конечно, можно выполнить очень высокопроизводительный VM's от непосредственно подключаемой системы хранения данных (HP DL380 G6 с 16 внутренними дисками в массиве RAID 10 имел бы довольно быстрый диск IO), но если Вы создаете VMware или какую-либо другую виртуализированную среду для замены десятков, сотен или тысяч серверов, затем Вы безумны, если Вы не прикладываете много усилий (и вероятно деньги) в устойчивую архитектуру хранения.
Вы не должны покупать высококачественный SAN для кластеризирующихся функций - можно реализовать их с довольно дешевым NAS (или виртуализированный SAN как VSA HP\LEFTHAND) и все еще использовать сертифицированное устройство хранения данных. Однако, если Вы используете совместно используемую память, и она не имеет дублирования во всех точках в инфраструктуре SAN\NAS затем, Вы не должны действительно использовать ее для намного больше, чем тестирование. И дублированием является (как минимум) двойной (независимый) HBA's\storage NICs в Ваших серверах, двойные независимые матрицы, резервированные контроллеры в SAN, cache\cache с аварийным батарейным питанием destaging, избыточные заменяемые в горячем режиме вентиляторы и источники питания и т.д., RAID 5\6\10\50 и соответствующие числа горячих резервирований.
Реальное живое различие между Вашими системами - то, что, если одна из Ваших автономных систем катастрофически перестала работать, у Вас есть большая работа, чтобы сделать для восстановления ее, и Вы подвергнетесь времени простоя, просто сохраняющему исправленный. С присоединенными системами кластеризованного SAN, исправляя гипервизоры, или даже обновляя аппаратные средства гипервизора, должен закончиться в нулевое время простоя. Катастрофический отказ сервера просто побеждает сервис в течение отрезка времени, который требуется для перезагрузки VM на отдельном узле (в худшем случае) или если у Вас есть Отказоустойчивость, покрывающая те VMs затем, у Вас нет времени простоя вообще.
Как компания у нас есть более чем тысяча хостов, мы запустили с FC, попробованный iSCSI некоторое время, но отступили к FC из-за проблем производительности. Мы серьезно смотрим на NFS, но еще не имеем никаких заключений. О, и мы используем HP XP/EVA и некоторый NetApp, у нас нет локальной панели устройства хранения данных desktop/dev хосты.
Мы выполняем 4 ESX 4 сервера, и мы используем EqualLogic iSCSI SAN.
На меньших установках локальное устройство хранения данных совершенно приемлемо, пока у Вас есть достойные диски - я сказал бы что 10k об/мин + диски SAS. Единственное время НЕОБХОДИМО использовать совместно используемый диск (я намеренно не сказал, что san как совместно используемый диск может быть выключен и доля NFS) решение состоит в том, когда необходимо сделать кластеризацию - VMware HA и ДОКТОР.
Прямо сейчас у нас есть 3 уровня устройства хранения данных - FiberChannel SAN, Equalogix Высокого класса SAN и MD3000i низкого уровня SAN. Заключительные два являются iSCSI. Мы также выполняем некоторые серверы от локального устройства хранения данных серверов ESX - главным образом служебные серверы, о которых мы не заботимся, снижаются ли они в течение часа или два, в то время как мы чиним вещи, если все идет бум на поле.
Мы также выполняем нашу тестовую среду от сделанного в домашних условиях использования NAS 7.2k диски SATA, и цель предприятия iSCSI (производительность не весь настолько хороша, но это получает нас).
Много людей склоняется к выполнению против долей NFS в больших средах также. Я хотел играть с этим некоторое время, но havn't нашел время.
Для высокопроизводительных записей и чтений, я нашел FC непобедимым в производительности, и пока цена высока... Это просто работает... на более приземленный iSCSI ожиданий производительности, на самом деле работал вполне прилично, таким образом, я обычно получал файлы почтового ящика Exchange Server на дисковой подсистеме FC и фактические загрузочные диски на диске интерфейса iSCSI с серверами DNS и машинами Active Directory, также работающими от iSCSI.
Я выполнил ESX с SAN, NAS и DAS. Это полностью зависит от:
Для надежности и скорости, я не думаю, что можно победить SAN.
Для надежности и стоимости, я пошел бы с NAS.
И для скорости и стоимости, DAS.
Не то, чтобы отдельные опции не перекрывают некоторых, но это - преимущества, которые я засвидетельствовал.
Мы работаем четыре (хорошо, четыре живых, один для тестирования) хосты ESXI с матрицей iSCSI, созданной из товарных переключателей и Hitachi низкого уровня SAN - SMS 100.
Даже на том уровне, у нас есть двойные контроллеры, каждый с двойными портами на основную плату SAS, таким образом, любой контроллер может захватить диски и двойные зарубки - который мы пересекаем провод к двойным переключателям, и на двойных зарубках в хостах ESX.
Каждый из vfs объемов имеет четыре видимых пути, таким образом, это довольно терпимо. Мы используем Dell PowerEdge, переключающийся для матрицы - у них есть потенциальные проблемы наверняка (меньше всего, никакой избыточный PSUs).. но они являются также достаточно дешевыми, что предварительно сконфигурировавший два запчасти в поле, готовом загружать, становится реальной возможностью.
очевидно, если Вы хотите больше девяток, необходимо потратить больше денег, но я думаю, что красота iSCSI, ESXI и товарного набора Gigabit Ethernet состоит в том, что можно совершить нападки выше веса с точки зрения устойчивости и производительности.
У всего есть свои плюсы и минусы ... Итог - SLA, загрузка приложения и масштабирование. Так что, если вам нужно высокопроизводительное хранилище для небольшого развертывания (1-5 хостов), вы, вероятно, можете справиться с этим с помощью NFS (на самом деле однажды я достиг большей задержки с NFS, чем с SAN с использованием RAM-дисков). Теперь попробуйте масштабировать это, и вы обнаружите, что стоимость репликации вашей установки в масштабе очень сопоставима с хорошей SAN, что делает FC единственным логичным вариантом для просмотра ... В большинстве случаев я в конечном итоге использую комбинации для различных служб (приложений , БД, резервные копии, архивы) нет единой платформы для оптимизации затрат в зависимости от потребностей.