Конфигурация RAID для крупного NAS

Если это только для себя, или Вы не волнуетесь по поводу пользователей, удаляющих его, Вы могли просто создать ярлык на веб-сайт на рабочем столе как любой другой ярлык, затем перемещают ярлык на меню "Пуск" в All Program > Startup. Поскольку все пользователи просто отбрасывают его в \Documents and Settings\All Users\Start Menu\Programs\Startup, или поскольку определенный пользователь отбрасывают его в \Documents and Settings\DESIRED USER\Start Menu\Programs\Startup, заботясь замене DESIRED USER с, ну, в общем, требуемым пользователем.

С другой стороны, Вы могли поместить ярлык в 'секрет' такой как \WINDOWS и создайте запись в реестре в HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Run для текущего зарегистрированного пользователя, или под HKEY_LOCAL_MACHINE\Software\Microsoft\Windows\CurrentVersion\Run для всех пользователей. Имя должно быть кратким описанием ярлыка, и значение должно быть то, где ярлык находится в системе, добавленной с .url (например, если я сохранил ярлык на Google в папке окон и назвал ярлык google, значение было бы "C:\WINDOWS\google.url"

13
задан 23 June 2009 в 18:11
8 ответов

Уже существует уровень RAID для того, что Вы хотите; это назвало RAID 10.

СВБР для дисков профессионального и потребительского уровня увеличилось порядком величины в последние годы, некорректируемый коэффициент ошибок остался относительно постоянным. Этот уровень оценивается в 10^14 биты, так один бит на чтение на 12 терабайт, для потребителя диски SATA, источник.

Так, для каждого сканирования Ваших передач Вашего диска на 24 ТБ статистически Вы встретитесь по крайней мере с 2 единственными битовыми ошибками. Каждая из тех ошибок инициирует RAID5, восстанавливают, и хуже, во время восстанавливают вторую ошибку, вызовет двойной отказ.

10
ответ дан 2 December 2019 в 21:20
  • 1
    Точные замечания о некорректируемом коэффициенте ошибок, но в 3-м абзаце, необходимо добавить это " статистически, Вы встретитесь..." так как все мы знаем, что ошибки чтения (или отсутствие их) являются not' t бесспорный –  Matt Simmons 23 June 2009 в 18:30
  • 2
    Won' t это пытаются читать снова перед восстановлением? –  Antoine Benkemoun 23 June 2009 в 18:31
  • 3
    Antoine: Несомненно, но если это действительно can' t быть считанным, it' s оказывающийся перед необходимостью восстанавливать для получения данных из четности, IIRC. –  Matt Simmons 23 June 2009 в 18:34
  • 4
    @Antonie, это некорректируемые ошибки чтения, который является ошибками, которые не корректируемы дисками логика ECC (который исправляет ошибки на уровне значительно выше, чем 1: 10^14) –  Dave Cheney 23 June 2009 в 18:39
  • 5
    Таким образом, это ошибки, которые вызываются ошибками при записи? что мешает второму чтению происходить успешно? –  Antoine Benkemoun 23 June 2009 в 18:43

Это - точно моя повседневная работа... создающая серверы хранения Linux.

  • Карта Areca в порядке. Можно использовать его в RAID-6, это обеспечит разумную безопасность. Купите дополнительную Батарейку, также.
  • Используйте диски корпоративного класса, не настольные диски. Вы потратите еще 400 маркеров на свой сервер, но это определенно стоит того. Купите два резервных диска. Не смешивайте с ним, используйте диски той же модели.
  • Для файловой системы используйте XFS. Не шутя, ext3 и друзья просто не будет до задания для 16 ТБ + файловые системы. Даже в случае серьезного катастрофического отказа, xfs_repair будет довольно быстр на объеме на 20 ТБ (15 минут, не больше).
  • Предпочтительно, используйте LVM2, он упростит управление хранением, даже если Вы не запланируете изменить его очень.
  • установите инструмент управления ареки и запишите задание крона для отправки Вам ежедневного электронного письма с проверкой состояния.
  • Не забывайте резервное копирование. RAID не является резервным копированием; если кто-то просто удалит важный файл, то Вы не сможете восстановиться без надлежащего резервного копирования. Я лично использую rdiff-резервное-копирование для сохранения всех важных данных на выделенном сервере с одной историей месяца; можно также создать два объема RAID на файловом сервере и скопировать один на другом.
11
ответ дан 2 December 2019 в 21:20

ничего себе, RAID5 по RAID5? Хотите обсудить проблемы производительности? У Вас будут тонны. Хост Вы подвешиваете тех, которые выключены из, будет иметь котят вычислительной четностью, пишущий что четность в 3 диска и затем вычислительную технику четности ТОЙ четности и записи ее к 4-му диску того набора. WOW!

Позволяет разговору о RAID10. Это - по существу RAID 1, но Вы делите свои диски на половину и зеркало это. Это отказоустойчиво в этом, можно потерять 2 диска и все еще быть в порядке, плюс производительность является выдающимся.

Если Вам не нужна безумная сумма пространства, но у Вас есть массив на 24 ТБ, сидящий без дела ни с чем лучше, чтобы сделать, но оно абсолютно положительно должно произойти, то Вы могли бы рассмотреть RAID60. Это - по существу RAID6 с помощью зеркально отраженных наборов дисков. Вы потеряете приблизительно половину Ваших дисков, и производительность будет плоха, но Вам почти гарантируют это, данные будут там.

Действительно, я пошел бы с RAID10. Это работает хорошо и хорошо работает. Я мнение второго Evan, что Вы, вероятно, не должны делать гиганта наборами RAID из этого много дисков, потому что, как он говорит, вещи как fsck и chkdsk возьмут навсегда, и но что еще более важно в моем уме, потому что статистическая вероятность ошибки чтения повышается как размер отдельного диска, делаю. Я рекомендовал бы 7-10 дисков на набор. Вы могли создать 3 очень прилично размерных объема RAID с тем количеством шпинделей.

Какой бы ни Вы выбираете, не забудьте оставлять несколько дисков при горячих резервированиях, так, чтобы можно было начать восстанавливать сразу, вместо того, чтобы иметь массив ожидают Вас для замены их. Как только диск умирает, часы начинают тикать, чтобы другой пошел.

6
ответ дан 2 December 2019 в 21:20
  • 1
    @Matt: I' m, не говоря о размере наборов RAID - I' m говорящий о размере файловой системы. Используя единственную файловую систему, настолько большую, независимо от типа файловой системы, спрашивает в течение огромного времени простоя, когда необходимо осуществить проверку файловой системы потому что хост ОС " corrupted" файловая система, и т.д. –  Evan Anderson 23 June 2009 в 18:29
  • 2
    @Evan - Извините, мое плохое. Но это - другой аргумент против него, также. –  Matt Simmons 23 June 2009 в 18:31
  • 3
    @Matt: аргумент, против какой? Расположение контейнеров RAID и количество файловых систем на тех контейнерах RAID являются проблемами orthagonal. Вы don' t имеет , чтобы иметь единственную файловую систему в единственном контейнере RAID, и файловая система может охватить несколько контейнеров RAID в большинстве операционных систем. –  Evan Anderson 23 June 2009 в 18:35
  • 4
    Вы корректны на обоих. We' принятие ре. Вы shouldn' t делают чрезвычайно большие файловые системы, потому что время проверки плохо. Вы также shouldn' t делают чрезвычайно большие объемы набега, потому что статистическая вероятность ошибки чтения увеличивается. –  Matt Simmons 23 June 2009 в 18:38

Почему не RAID 1+0? Это все обрабатывается на уровне контроллера...

2
ответ дан 2 December 2019 в 21:20

Я знаю, что Вы сказали "R&D", но Вы также сказали "высоконадежный". Я подверг бы сомнению "сбережения" решения DIY по сравнению с покупкой стандартного механизма SAN, чтобы сделать это. Когда вещи идут не так, как надо с Вашим решением DIY, Вы собираетесь быть в незавидном положении наличия никого для контакта для справки. Чего время простоя стоит Вам в час? Можно съесть стоимость некоторого среднего уровневого механизма SAN довольно быстро в расходе времени простоя, игнорируя расход, связанный с прямой потерей данных.

Независимо от того, что Вы делаете о базовом диске, я не создал бы единственную файловую систему, настолько большую.

Повреждение файловой системы является реальной возможностью (проблема RAID-контроллера, ошибки ОС, и т.д.). В объеме, настолько большом, проверка файловой системы собирается взять навсегда. Я настоятельно рекомендовал бы использование нескольких объемов, которые могут быть логически объединены для появления как единственная файловая система (через различные средства - Вы не упоминали ОС, таким образом, я не могу дать Вам определенные идеи). Если у Вас будет некоторое повреждение файловой системы, то Вы потеряете часть логического тома, но Вы будете все еще бодрствовать.

Как пример: В мире Windows, выполняя CHKDSK на томе NTFS на 20 ТБ, заполненном файлами, будет МЕДЛЕННЫМ. В такой среде я создал бы несколько меньших томов NTFS и логически объединил бы их в единое пространство имен с DFS.

1
ответ дан 2 December 2019 в 21:20

wazoox, ответы хороши, у меня нет представителя, чтобы дать ему больше плюсов, но я добавил бы следующее.

RAID 6 или по крайней мере 2 живых диска четности на 10 дисков, 16 самое большее это - то, если можно занять приблизительно день, когда на производительность повлияет набег, восстанавливают. Если Вы не можете жить с неисправностью затем, то, что это оказывалось перед необходимостью зеркально отражается дорожки.

Если бы Вы идете путем Linux, я или использовал бы аппаратную плату RAID (с резервным аккумулятором) или имел бы RAID-контроллер в дисковой полке. Я соглашаюсь, что xfs является предпочтительной файловой системой на Linux, однако знать, что файловые системы приблизительно 50 ТБ на xfs берут больше чем 16 ГБ RAM, если необходимо выполнить xfs_check.

Я серьезно рассмотрел бы хорошее поле NAS, такое как NetApp, поскольку они - намного меньше длительного срока работы, это зависит, насколько Ваше / администраторское время устройства хранения данных стоит к компании.

Получение nfs/самбы работать хорошо является определенным темным искусством, Будут Вами использующий эфир на 10 ГБ или просто агрегирования 1GB/sec? (Не получайте карты Broadcomm особенно на 10 ГБ).

LVM2 не является никаким brainer, но не используйте снимок shotting, поскольку это не быстро.

Помните, что резервные копии этого займут время.

Протестируйте способ, которым может перестать работать система, прежде чем это войдет в производство, и опишите его, где Вы и Ваши коллеги можете найти документы, когда все идет не так, как надо.

1
ответ дан 2 December 2019 в 21:20

Это зависит от Вашего отношения чтения-записи. Мы используем много HP MSA70 внешние дисковые полки SAS с 25 дисками и всегда создаем их, поскольку единственный RAID6 выстраивает как наше чтение, чтобы записать, что отношение составляет 99%:1%, таким образом, мы не заботимся, что R6 о самом медленном при записи (все еще довольно быстр, просто не настолько хороший по сравнению с другими). Таким образом, мы имеем 23 дисковой ценности доступных данных нам, имеем очень хороший, как в ОЧЕНЬ хорошем, случайном чтении и в целом читаем преимущества пропускной способности и можем пережить два отказа диска.

Как грубое руководство массив RAID5 не должен иметь больше, чем приблизительно 14 дисков в одном массиве, пока RAID6 должен согласиться приблизительно с максимум 54 дисками - очевидно, чем больше массив, тем больше, залив между производительностью чтения и производительностью записи и медленнее восстанавливает возьмет только это CAN быть хорошим компромиссом.

1
ответ дан 2 December 2019 в 21:20

Я добавил бы два резервных диска для запуска.

RAID 5 или 6 хорошо для случайных чтений или больших последовательных чтений и записей. Если Вы собираетесь добраться, много маленьких записей идет с RAID 10, так как RAID 5 + получает 4 x удара на маленьких записях.

Если Вы собираетесь включить кэш записи, не забывают поддерживать его батареей.

0
ответ дан 2 December 2019 в 21:20

Теги

Похожие вопросы