Таким образом, что действительно заставляет сервер градуировать NIC?

Рискуя тем, чтобы указать на очевидное... Находится default.aspx все еще в списке документов по умолчанию для того сайта / виртуальный каталог?

6
задан 13 April 2017 в 15:14
3 ответа

Вы спрашиваете о выполнении маленького iSCSI SAN, и Вы на правильном пути. Мы делаем что-то очень похожее на массивы MD3000i и серверы Dell.

В схеме, если, Вы показываете две ссылки с сервера для переключения. Я думаю, что можно сойти с рук одна ссылка, если Вы не связываете их для большей пропускной способности. Как показано расположение защищает от отказа сервера NIC, кабель и порт на переключателе. Лучшее (высокий доллар) подход должно было бы добавить второй переключатель и подключить каждый Сервер к каждому переключателю и кросс-соединение переключатели. Это защищает от потери целостного коммутатора, но добавляет сложность Связующего дерева, которое является протоколом Layer2 для предотвращения цикла, который иначе появляется в сети, когда 2 переключателя представлены. Оттуда, два переключателя обычно присоединены к двум заголовкам SAN, которые самим перекрестный соединены.. но это - более широкий масштаб, чем Вы спросили о. Пойдите единственный путь целый путь и примите крайний повышенный риск в торговле для простоты ухода и питания.

Относительно простоты ухода и питания: Хорошо подумайте об относительной вероятности отказа оборудования по сравнению с wetware отказом. Я чувствую, что вижу 5:1 отношение глупостей - людей по сравнению с фактическим сбоем HW, и поэтому если Вы не собираетесь делать миллион долларов fully-redundant-everything, сохраните это простым.

При включении Крупных кадров необходимо сделать Крупные кадры везде в той сети. Вы изобразили схематически выделенную сеть хранения, таким образом, можно сделать это - мне не так повезло.

Если Вы связываете их сервер NICs для пропускной способности, рассматриваете добавление более связанных интерфейсов от переключателя до заголовка SAN. Если каждый из серверов N делает X трафиков, san должен не отставать от трафика NX минус некоторый маленький фактор выдумки превышения намеченной суммы.

Я верю "медному соединению", о котором Вы спросили, просто медная витая пара CAT6 Ethernet, как используется для iSCSI. Когда Вы перемещаетесь в мир SAN более высокого уровня, Вы видите больше оптоволоконных соединений и плат HBA с различными модульными физическими коннекторами - SFP, GBIC, и т.д.

Мимоходом, как Вы делите сеансы пользователя между серверами Citrix? Есть ли какой-либо вид активного выравнивания нагрузки на месте (Netscaler?), Если у Вас есть HA серверы Xen, как обработка отказа обрабатывает взгляд с пользовательской точки зрения? Удостоверьтесь, что Вы определили механизм, которым этот SAN на самом деле улучшает вещи для пользователей.

Отредактированный для добавления: Вы могли бы также оценить более традиционный общий кластер устройства хранения данных прямого присоединения. Я делаю их с Windows, таким образом, у меня нет деталей вокруг Xen/Linux, но это - диск SAS, совместно использованный этими двумя узлами. Так как примером является Dell MD3000 (не, "я" моделирует). (С Dell Вам нужен надлежащий HBA также, SAS 5/e, iirc), Если Вы никогда не собираетесь добавлять, что больше вычисляет узлы, кластер SAS мог бы быть легче и более дешевым для создания. Независимо от того, что Вы заканчиваете тем, что делали: Проверьте и Тест, тест, тест. По моему опыту, люди создают кластер для добавления "высокой доступности", не определяя то, что это означает в реальном выражении, и затем не проверяйте это, она защищает их от отказов, против которых они ожидали (надежда, действительно).

4
ответ дан 3 December 2019 в 00:03

Ожидайте - Вы просите сервер градуировать NICs, но хотеть купить 350 переключателей маркеров?! Я не получаю это...

Обычно "класс сервера" 48-портовые переключатели GigE идет за где-нибудь объявленную цену приблизительно в 3000-5000 долларов США. Возможно, Вы хотите высматривать вещи стороны коммутатора как укладка для перекрестного стека LACP.

Относительно NIC, вещей как:

  • надлежащий интерфейс DMA и хорошие драйверы, которые поддерживают прерывания MSI-X (проверяют обзоры на производительности для этого),
  • соответствие скорости интерфейса PCI-E
  • несколько портов в случае необходимости
  • TCP разгружает механизм
  • Функции L2 как 802.1Q и 802.1X
  • iSCSI разгружает механизм
  • GBIC поддерживают при необходимости к смешиванию и подгонке в WAN и LAN на том же NIC
11
ответ дан 3 December 2019 в 00:03

Таким образом, что действительно заставляет сервер градуировать NIC?

Прежде всего, качество.

От производственной точки различия между сервером и "потребительский" класс NIC несколько подобны различиям между надлежащей материнской платой сервера и той в обычном ПК. Во-первых, компоненты являются обычно более высоким уровнем, выбранным с более трудными допусками и более высокими резервными полями. Также обычно будет лучшая схема защиты для защиты от поврежденного, вызванного из напряжений допуска, таких как скачки, вызванные в сетевом кабеле, который мог бы пожарить регулярный NIC.

Используемые чипсеты будут обычно иметь некоторый уровень дублирования, где части схемы могут быть переключены в и как требуется обработать состояние отказа. Нисколько в отличие от наличия резервного питания не предоставляет в сервере.

Встроенное микропрограммное обеспечение, также, вероятно, будет лучше в классе сервера NIC, который обычно позволяет ему обрабатывать состояние сети, которое могло бы принести регулярный NIC к его общеизвестным коленям.

1
ответ дан 3 December 2019 в 00:03

Теги

Похожие вопросы