Какое устройство хранения данных люди на самом деле используют для VMware серверы ESX?

Это, возможно, имело некоторое отношение к недавнему изменению в пароле административной учетной записи.

Я удалил все "запланированные задачи", связанные с процессом резервного копирования, и воссоздал их с, "добавьте запланированная задача" мастер. При помощи мастера резервного копирования затем, если, я смог настроить все, поскольку я хотел это через интерфейс ntbackup, и теперь имейте также полную команду ("ntbackup.exe...") в списке задач. Установив выполнение как материал правильно, это теперь хорошо работает - и sbs средства восстановления работают также.

27
задан 7 January 2010 в 10:54
9 ответов

Я делаю много VMware, консультируясь с работой, и я сказал бы, что проценты ближе к 80% установленной основной высоконадежной совместно используемой памяти использования (FC, iSCSI или NAS высокого класса), и большим количеством моих клиентов является SME. Ключевой фактор, который я нашел, - рассматривает ли бизнес свой сервер время как очень важный или нет, для большинства компаний сегодня это.

Конечно, можно выполнить очень высокопроизводительный VM's от непосредственно подключаемой системы хранения данных (HP DL380 G6 с 16 внутренними дисками в массиве RAID 10 имел бы довольно быстрый диск IO), но если Вы создаете VMware или какую-либо другую виртуализированную среду для замены десятков, сотен или тысяч серверов, затем Вы безумны, если Вы не прикладываете много усилий (и вероятно деньги) в устойчивую архитектуру хранения.

Вы не должны покупать высококачественный SAN для кластеризирующихся функций - можно реализовать их с довольно дешевым NAS (или виртуализированный SAN как VSA HP\LEFTHAND) и все еще использовать сертифицированное устройство хранения данных. Однако, если Вы используете совместно используемую память, и она не имеет дублирования во всех точках в инфраструктуре SAN\NAS затем, Вы не должны действительно использовать ее для намного больше, чем тестирование. И дублированием является (как минимум) двойной (независимый) HBA's\storage NICs в Ваших серверах, двойные независимые матрицы, резервированные контроллеры в SAN, cache\cache с аварийным батарейным питанием destaging, избыточные заменяемые в горячем режиме вентиляторы и источники питания и т.д., RAID 5\6\10\50 и соответствующие числа горячих резервирований.

Реальное живое различие между Вашими системами - то, что, если одна из Ваших автономных систем катастрофически перестала работать, у Вас есть большая работа, чтобы сделать для восстановления ее, и Вы подвергнетесь времени простоя, просто сохраняющему исправленный. С присоединенными системами кластеризованного SAN, исправляя гипервизоры, или даже обновляя аппаратные средства гипервизора, должен закончиться в нулевое время простоя. Катастрофический отказ сервера просто побеждает сервис в течение отрезка времени, который требуется для перезагрузки VM на отдельном узле (в худшем случае) или если у Вас есть Отказоустойчивость, покрывающая те VMs затем, у Вас нет времени простоя вообще.

27
ответ дан 28 November 2019 в 20:06
  • 1
    В зависимости от Вашего бизнеса супер duper дважды - все дублирование может быть излишеством - несколько запасных частей (hbas и gbics, например) могут покрыть много проблем. Если у Вас есть кластерная обработка отказа, которая плюс некоторый механизм может предоставить достаточно упругости многим компаниям, особенно когда FC дает Вам шок этикетки. –  Jim Zajkowski 3 November 2009 в 07:35
  • 2
    Я должен добавить наши восемь серверов ESX, все использование совместно использовало диск FC для устройства хранения данных. –  Jim Zajkowski 3 November 2009 в 07:36
  • 3
    Верный и шок этикетки FC настоящая проблема (затраты на лицензирование порта на переключателях FC в особенности дает мне регулярную изжогу), но для долгосрочной обеспеченности, имеющей полное резервирование, делает все намного легче справиться, можно избежать почти всего времени простоя для обслуживания инфраструктуры, например. С FC это дублирование стоит больших денег (и возможно почка или два), чтобы быть уверенным, но с iSCSI или средой NAS это doesn' t добавляют много к общей стоимости, даже когда с помощью относительно дорогих компонентов. –  Helvick 3 November 2009 в 21:36
  • 4
    Я должен все же видеть " двойной everything"... обычно диски SAN включают одну основную плату, которая является поэтому единой точкой отказа. –  James Risto 10 November 2009 в 15:53

Как компания у нас есть более чем тысяча хостов, мы запустили с FC, попробованный iSCSI некоторое время, но отступили к FC из-за проблем производительности. Мы серьезно смотрим на NFS, но еще не имеем никаких заключений. О, и мы используем HP XP/EVA и некоторый NetApp, у нас нет локальной панели устройства хранения данных desktop/dev хосты.

1
ответ дан 28 November 2019 в 20:06

Как Вы видите, нет никаких соответствий размера всех, и это не имеет к решению для устройства хранения данных единого класса. У Вас может быть несколько классов памяти в зависимости от доступности и требований к производительности

1
ответ дан 28 November 2019 в 20:06

Мы выполняем 4 ESX 4 сервера, и мы используем EqualLogic iSCSI SAN.

0
ответ дан 28 November 2019 в 20:06
  • 1
    Как механизм EqualLogic выдерживал сравнение для высказывания LeftHand или традиционных SAN с точки зрения цены и производительности? –  Sim 5 November 2009 в 04:21
  • 2
    I' m любопытный также, чтобы знать, как LeftHand выдерживает сравнение теперь, когда HP ahs получил их –  warren 10 November 2009 в 14:55
  • 3
    У меня нет experince с LeftHand. I' m на самом деле в процессе выполнения некоторых сравнений между нашей установкой EqualLogic и Fibre Channel SAN от Непреодолимого. Я отправлю назад с обновлением, когда у меня будут некоторые результаты. –  Richard West 11 November 2009 в 18:24

На меньших установках локальное устройство хранения данных совершенно приемлемо, пока у Вас есть достойные диски - я сказал бы что 10k об/мин + диски SAS. Единственное время НЕОБХОДИМО использовать совместно используемый диск (я намеренно не сказал, что san как совместно используемый диск может быть выключен и доля NFS) решение состоит в том, когда необходимо сделать кластеризацию - VMware HA и ДОКТОР.

Прямо сейчас у нас есть 3 уровня устройства хранения данных - FiberChannel SAN, Equalogix Высокого класса SAN и MD3000i низкого уровня SAN. Заключительные два являются iSCSI. Мы также выполняем некоторые серверы от локального устройства хранения данных серверов ESX - главным образом служебные серверы, о которых мы не заботимся, снижаются ли они в течение часа или два, в то время как мы чиним вещи, если все идет бум на поле.

Мы также выполняем нашу тестовую среду от сделанного в домашних условиях использования NAS 7.2k диски SATA, и цель предприятия iSCSI (производительность не весь настолько хороша, но это получает нас).

Много людей склоняется к выполнению против долей NFS в больших средах также. Я хотел играть с этим некоторое время, но havn't нашел время.

0
ответ дан 28 November 2019 в 20:06

Для высокопроизводительных записей и чтений, я нашел FC непобедимым в производительности, и пока цена высока... Это просто работает... на более приземленный iSCSI ожиданий производительности, на самом деле работал вполне прилично, таким образом, я обычно получал файлы почтового ящика Exchange Server на дисковой подсистеме FC и фактические загрузочные диски на диске интерфейса iSCSI с серверами DNS и машинами Active Directory, также работающими от iSCSI.

1
ответ дан 28 November 2019 в 20:06

Я выполнил ESX с SAN, NAS и DAS. Это полностью зависит от:

  1. бюджет
  2. опыт
  3. дата-центр и/или пространство стойки
  4. деньги

Для надежности и скорости, я не думаю, что можно победить SAN.

Для надежности и стоимости, я пошел бы с NAS.

И для скорости и стоимости, DAS.

Не то, чтобы отдельные опции не перекрывают некоторых, но это - преимущества, которые я засвидетельствовал.

1
ответ дан 28 November 2019 в 20:06

Мы работаем четыре (хорошо, четыре живых, один для тестирования) хосты ESXI с матрицей iSCSI, созданной из товарных переключателей и Hitachi низкого уровня SAN - SMS 100.

Даже на том уровне, у нас есть двойные контроллеры, каждый с двойными портами на основную плату SAS, таким образом, любой контроллер может захватить диски и двойные зарубки - который мы пересекаем провод к двойным переключателям, и на двойных зарубках в хостах ESX.

Каждый из vfs объемов имеет четыре видимых пути, таким образом, это довольно терпимо. Мы используем Dell PowerEdge, переключающийся для матрицы - у них есть потенциальные проблемы наверняка (меньше всего, никакой избыточный PSUs).. но они являются также достаточно дешевыми, что предварительно сконфигурировавший два запчасти в поле, готовом загружать, становится реальной возможностью.

очевидно, если Вы хотите больше девяток, необходимо потратить больше денег, но я думаю, что красота iSCSI, ESXI и товарного набора Gigabit Ethernet состоит в том, что можно совершить нападки выше веса с точки зрения устойчивости и производительности.

0
ответ дан 28 November 2019 в 20:06

У всего есть свои плюсы и минусы ... Итог - SLA, загрузка приложения и масштабирование. Так что, если вам нужно высокопроизводительное хранилище для небольшого развертывания (1-5 хостов), вы, вероятно, можете справиться с этим с помощью NFS (на самом деле однажды я достиг большей задержки с NFS, чем с SAN с использованием RAM-дисков). Теперь попробуйте масштабировать это, и вы обнаружите, что стоимость репликации вашей установки в масштабе очень сопоставима с хорошей SAN, что делает FC единственным логичным вариантом для просмотра ... В большинстве случаев я в конечном итоге использую комбинации для различных служб (приложений , БД, резервные копии, архивы) нет единой платформы для оптимизации затрат в зависимости от потребностей.

0
ответ дан 28 November 2019 в 20:06

Теги

Похожие вопросы