Лучший выбор файловой системы для хранения NFS образы дисков VMware

Эти боты вслепую пробуют каждую форму, которую они находят для отправки почты спама. У некоторых из них могут быть исторические данные форм и даже если они в настоящее время не перечисляются на поисковых системах, эти боты могут отправить данные на тот URL.

Скажем, веб-сайт содержит HTML-форму для отправки рекомендации другу, обычно "Говорят, что жареное" или "Отправляет поздравительную открытку", которая не защищена КАПЧОЙ, например. Бот мог использовать форму для отправки тысяч спама с помощью сервера SMTP.

Если бот прибывает из того же IP-адреса, Вы могли бы заблокировать тот адрес на IIS или на Вашем брандмауэре.

11
задан 20 March 2017 в 12:04
5 ответов

Я действительно рекомендовал бы смотреть на ZFS, но получить достойную производительность, Вы испытываете необходимость для взятия специализированного устройства как Журнала намерения ZFS (ZIL). В основном это - небольшое устройство (некоторые ГБ), который может записать чрезвычайно быстро (20-100K IOPS), который позволяет ZFS сразу подтвердить, что записи синхронизировались к устройству хранения данных, но дожидаются к 30secs для фактической передачи записей жестким дискам в объединении. В случае катастрофического отказа/отключения электричества любая незафиксированная транзакция в ZIL воспроизводятся на монтирование. В результате в дополнение к UPS можно хотеть диск с внутренним предоставлением/суперконденсатором питания так, чтобы любая незаконченная iOS добралась до постоянного хранения в случае потерь мощности. Если Вы выбираете против выделенного устройства ZIL, банка записей может иметь высокое продвижение задержки ко всем видам проблем. Принятие Вы не интересуетесь записью Sun на 18 ГБ, оптимизировало SSD "Logzilla" на уровне ~ 8 200$, некоторые более дешевые альтернативы существуют:

  • DDRDrive X1 - DDR2 на 4 ГБ + Flash SLC на 4 ГБ в карте PCIe x1, разработанной явно для использования ZIL. Записи переходят к RAM; в случае потерь мощности это синхронизирует RAM к NAND в <60 секунд, приводимых в действие суперконденсатором. (50k-300k IOPS; Прямых 2 000$, 1 500$ для .edu)
  • Intel X25-E 32GB 2.5inch SSD (SLC, но никакое супер ограничение, 3 300 записей IOPS); [390$ Amazon] [11]
  • Вершина OCZ 2 Pro SSD на 40 ГБ 2.5 дюйма (суперограничение, но MLC, 20k-50k пишут IOPS); 435$ Amazon.

После того как у Вас есть OpenSolaris/Nexenta + установка ZFS, там довольно много способов переместить блоки между Вашим OpenSolaris и ESX boxen; что является правильным для Вас, в большой степени зависит от Вашей существующей инфраструктуры (переключатели L3, карты Волокна) и Ваши приоритеты (дублирование, задержка, скорость, стоимость). Но так как Вам не нужны специализированные лицензии для разблокирования функциональности iSCSI/FC/NFS, можно оценить что-либо, для чего Вы имеете аппаратные средства и выбираете Вашего фаворита:

  • Цели iSCSI (ЦП наверху; никакая поддержка ПАЛЬЦА НОГИ в OpenSolaris)
  • Цели Fibre Channel (Карты волокна не является дешевым),
  • NFS (VMware + NFS может быть привередливым, ограничен 32, монтируется),

Если Вы не можете потратить 500$ для оценки, теста с и без ZIL, отключенного, чтобы видеть, является ли ZIL узким местом. (Это, вероятно). Не делайте этого в производстве. Просто еще не смешивайте с дедупликацией ZFS, если у Вас также нет большого количества поршня и SSD для L2ARC. Это определенно хорошо, после того как Вы получаете его установка, но Вы определенно пытаетесь сделать некоторый NFS, Настраивающийся прежде, чем играть с dedup. После того как Вы получаете его насыщающий 1-2 Гбита ссылки, там возможности роста в FC на 8 ГБ, 10gigE и infiniband, но каждый требует значительных инвестиций даже для оценки.

13
ответ дан 2 December 2019 в 21:49

Я не сделал бы точно этого. По моему опыту, Linux (конкретно CentOS 3/4/5) является обычно плохим выбором для сервера NFS. Я имел несколько и нашел, что при загрузке, задержка и пропускная способность имеют тенденцию отбрасывать по причинам, мы никогда не могли вполне получать головы вокруг.

В наших случаях мы сравнивали производительность компенсационного Linux с Солярисом (на UltraSparc) и NetApp; оба из которых возвратили результаты с точки зрения производительности от яблок к яблокам и в туманных терминах "инженеров, не жалующихся почти так же на задержку, когда сервер являлся объектом загрузки". Было несколько попыток настроить сервер NFS Linux; и NetApps и системы Соляриса работали как есть из поля. И и начиная с Солярис и начиная с включенные системы NetApp были более старыми, серверы Linux могли быть обсуждены, чтобы иметь преимущество и все еще не удаться быть убедительными.

Если бы у Вас есть время, это был бы разумный эксперимент для установки тех же аппаратных средств с OpenSolaris (теперь, когда Солярис является эффективно слишком дорогим использовать), Linux и возможно вариант BSD или два, и мчитесь их. Если можно придумать некоторые метрики производительности (диск количества ввода-вывода в VM, размещенном от хранилища, например) это могло бы сделать для интересного отчета или интернет-статьи. (Если у Вас есть время.)

Относительно NFS в целом, люди NetApp говорили мне несколько раз, что их сравнительные тесты показали, что NFS только имел стоимость 5 - 10% в производительности для VMs - и если бы Ваше приложение было достаточно чувствительно, что это было проблемой, Вы не должны виртуализировать его во-первых.

Но я должен признаться, что после всего того времени и слез, наше нелокальное производство хранилища VM все питаются iSCSI, главным образом от NetApp.

2
ответ дан 2 December 2019 в 21:49
  • 1
    Я думаю it' s NetApp, который начался с NFS, затем соединенным болтом на поддержке iSCSI позже, следовательно их продукты всегда видят ' лучший case' производительность NFS по сравнению с ' худший case' iSCSI... Seconding, избегающий NFS, хотя - можно использовать iSCSI на Linux и that' s лучший выбор IMO. –  Chris Thorpe 24 May 2010 в 06:01

Мы используем OpenSolaris 2009/06 с конфигурацией RAID 10 ZFS для обеспечения NFS нашему серверу ESXI VMware. Это работает довольно хорошо на наши потребности до сих пор. Мы используем диски типа Набега SATA (Seagate диски ES.2 1 ТБ). У нас все еще есть некоторая настройка, чтобы сделать как бы то ни было.

2
ответ дан 2 December 2019 в 21:49

Я - большой поклонник хранилищ данных NFS для VMware, NetApp имеет превосходную реализацию.

TR-3808 сравнивает масштабирование NetApp FC, iSCSI, и NFS соединил совместно использованные хранилища данных, который является превосходным чтением.

2
ответ дан 2 December 2019 в 21:49

Вы могли бы хотеть рассмотреть 3 + ошибка лет с ARC ZFS, который все еще сохраняется прежде, чем вскочить слишком глубоко с ZFS...

http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6522017

(Этот противен, поскольку это также выйдет от пределов VM гипервизора!)

-2
ответ дан 2 December 2019 в 21:49
  • 1
    Вы копировали/вставляли этот тот же "ответ" по крайней мере на два различных Nexenta-связанных вопроса. В то время как это - серьезная ошибка, можно было бы только столкнуться с нею в очень редком стечении обстоятельств. По сути, Ваши действия кажутся немного чрезмерными. Преимущества выполнения ZFS явно перевешивают очень небольшой шанс, что Вы поразите эту ошибку. –  EEAA 26 July 2010 в 05:12
  • 2
    Хорошо, сделайте это 8 отдельными вопросами, в которые Вы вставили этот тот же ответ. –  EEAA 26 July 2010 в 05:23
  • 3
    Они связаны, но это - Ваше мнение. Я соглашаюсь с преимуществами, но влияние этой выдающейся/продолжившейся ошибки является существенным, поскольку это принесет всю ОС к стачивающемуся останову - никакие преимущества затем, когда Вы не сможете надежно получить доступ к хранившим данным. –  user48838 26 July 2010 в 05:37
  • 4
    Для люди, которые действительно хотят оценить это справедливо для полной полноценности этого форума/формата, прочитайте комментарий к следующему сначала: serverfault.com/questions/162693 / … –  user48838 26 July 2010 в 20:53

Теги

Похожие вопросы