Грубая оценка для преимущества скорости SAN через волокно к san через iSCSI при использовании VMware vSphere

7 ответов

Там много определяющих факторов, которые входят в производительность, чувствующую здесь. Одна тонкая настройка, которую Вы могли бы рассмотреть, настраивает Крупные кадры. У Scott Lowe есть недавнее сообщение в блоге здесь, которое показывает часть из того, что он сделал для достижения этого.

Вы упоминаете, что гости будут кончаться загрузка ЦП - это всегда - великие кандидаты на виртуализацию - но различие между FiberChannel и iSCSI еще действительно не играет роли.

Если Ваши vm гости собираются быть рабочими интенсивными действиями устройства хранения данных, то необходимо полагать, что скорость передачи операции чтения-записи от Хоста VM до массива хранения данных может стать узким местом.

Так как Ваша типичная скорость передачи iSCSI составляет 1 Гбит/с (по Ethernet), и FC обычно вокруг 2-4Gbps (в зависимости от того, сколько наличных денег Вы готовы потратить), затем Вы могли заявить, что скорость передачи FC примерно вдвое более быстра.

Существуют также новые переключатели 10Gig-E, но Ваш Powervault и Powerconnect еще не поддерживают это.

Однако это действительно не означает, что машины будут работать быстрее, как будто они - запущенные приложения с низким вводом-выводом, они могли бы на самом деле работать на тех же скоростях.

Дебаты, относительно которых, никогда лучше не заканчиваются, и они в основном будут зависеть от Вашей собственной оценки и результатов.

У нас есть несколько развертывания основанных на FC мини-облаков и основанных на iSCSI мини-облаков и их обоих работа вполне прилично. Мы находим, что узкое место на уровне массива хранения данных, не Ethernet трафика iSCSI более чем 1 ГБ.

5
ответ дан 3 December 2019 в 02:28
  • 1
    Спасибо, Mike. То, что Вы говорите, примерно, что я ожидал. –  Dirk Paessler 2 June 2009 в 16:28

Вы, более вероятно, будете сужением трубы на количестве шпинделей, чем скорость Вашего транспорта.

Таким образом, да, необработанная скорость FC быстрее, чем iSCSI, но если Вы (гипотетически) пытаетесь выполнить 200 VMs от 6 шпинделей (физические диски), Вы собираетесь видеть худшую производительность, чем если бы Вы пытаетесь выполнить 200 VMs от 24 шпинделей по iSCSI. В нашей почти неактивной лабораторной среде мы работаем на уровне приблизительно 2 операций в секунду NFS на VM (240ish по сравнению с 117), так, чтобы мог бы дать некоторое понятие того, сколько IO Вы будете иметь.

Я не думаю, что Вы будете видеть много различия на основе транспорта, если Вы не будете знать, что у Вас есть очень высокий непрерывный IO (тяжелый инструментальный поток журнала данных? Видео архивация?, я не знаю, какие реальные сценарии могли бы быть похожими на это, чтобы быть честными).

Я действительно не думаю, что Вы заметили бы транспорт, если IOPS дисков существенно не перевешивают Вашу загрузку. Я пошел бы с другими критериями для принятия решений (простота управления, стоил бы, и т.д.),

Мы пошли с NFS на NetApp в прошлый раз, когда мы добавили устройство хранения данных.

4
ответ дан 3 December 2019 в 02:28

Это - очень значимое изменение. Хотя быть правдивыми, мы шли из Linux основанный на сервере iSCSI (фальсифицируйте iscsi) к волокну иначе тестовая среда к производству, когда моя последняя компания развертывала VMware, основывала совместно использованный хостинг. Наш представитель VMware заявил, что волокно является намного менее служебным когда дело доходит до нескольких VM's на единственном доступе необходимости хоста ESX к совместно используемой памяти. Я заметил общее использование экземпляра Win2k3 VM, удвоенного в производительности, но диск IO, который я протестировал использование hdtune на VM, был быстрее затем наш стандарт 2850-х Dell IO (3 x 73 ГБ в RAID 5 на perc 4, если не изменяет память, меня). Предоставленный мы выполняли, возможно, приблизительно 5 VM's на каждом хосте ESX с низким использованием, поскольку мы обучались на нем.

У Вашего представителя VMware должно быть много документации относительно Волокна по сравнению с iscsi включая некоторые полные сравнительные тесты или по крайней мере историй/сравнений реального внедрения. Наш уверенный представитель сделал.

2
ответ дан 3 December 2019 в 02:28

Я полагаю, что Вы будете видеть удвоение полной возможности IO при перемещении в 4 Гбит/с или лучший FC SAN.

У нас были крупные подаваемые FC фермы VMware, было давление для сокращения затрат на хранение, таким образом, мы начали создавать новое использование расширений iSCSI NetApp 10 Гбит/с, мы столкнулись с проблемами производительности так переместил их на всем протяжении в FC, и это была лучшая вещь, которую мы, возможно, сделали - мы удваиваем количество VMs на хост и получаем ту же производительность, как мы видели под iSCSI.

Конечно, наш, очень смешанный, профили загрузки VM, возможно, усилили это, но если бы можно предоставить FC затем, я сильно убедил бы Вас тот путь.

Я мог вдаваться в подробности (на самом деле, я счастливо буду, если запрошено), но в конечном счете iSCSI - почти 'что-то ни для чего' продукт, и все мы знаем о бесплатных ланчах :)

1
ответ дан 3 December 2019 в 02:28

Я знаю, что вопрос был решен, но я предлагаю, чтобы Вы взглянули на эту статью о FC по сравнению с iSCSI.

1
ответ дан 3 December 2019 в 02:28

В то время как это не спросили, я просто curiois, если RAID 5 является хорошим выбором для виртуальной среды, Вы рассмотрели RAID 10?

0
ответ дан 3 December 2019 в 02:28
  • 1
    Это зависит от того, как высокая запись ввода-вывода Вы требуете. –  pauska 12 June 2009 в 19:40

Мы имеем основанный на FC SAN все на уровне 2 Гбит/с и протестировали HBA's на 4 Гбит/с и не видели разницы в производительности. Горлышки бутылки для нас всегда при нашей скорости диска, дополнительно Вы можете иметь FC SAN основанный на 8 Гбит/с и все еще не видеть увеличения производительности, если Вашими дисками в Вашем массиве является SATA или даже 10K диски, это также зависит от типа RAID и размера массива. Также минус один Mike для использования слова "облако".

0
ответ дан 3 December 2019 в 02:28

Теги

Похожие вопросы