установите недорогой сервер хранения изображения с 24x массив SSD для получения высокого IOPS?

Статья базы знаний 833396 объясняет, как вручную удалить Exchange 2003. Просто имейте в виду, что Вы, очевидно, пропускаете шаги, связанные с самим сервером, и просто обрабатываете активный каталог.

Одна вещь, которую не затрагивает эта статья, обновляет Ваши коннекторы, которые, возможно, были размещены на том сервере и изменении Вашей общедоступной репликации папки.

Я также последовал бы совету в этой статье, чтобы обновить общедоступные папки, коннекторы и другие сервисы и поместить их в Ваш новый Exchange Server.

5
задан 3 December 2011 в 22:45
7 ответов

Я бы рассмотрел гибридное решение, которое может быть реализовано с OpenSolaris, SolarisExp 11, OpenIndiana или Nexenta. Гибридный пул будет намного дешевле, а с оперативной памятью на несколько тысяч долларов у вас будет 150 тыс. Операций ввода-вывода в секунду с в основном обычными вращающимися дисками. В Nexenta очень много клиентов, которые делают именно это. ZFS - это надежная файловая система, и при наличии достаточного количества ОЗУ и / или SSD для дополнительного кэширования чтения / записи вы можете получить очень надежное решение по относительно низкой цене. С Nexenta Core, являющейся сообществом, вы получаете 18 ТБ бесплатно. Конечно, новый выпуск OpenIndiana позволит использовать многие из тех же функций. Добавьте к этому моментальные снимки, клонирование, репликацию с использованием ZFS send / recv, и вы сможете построить сеть SAN, которая даст любой EMC возможность заработать за свои деньги по гораздо более низкой цене. Много SSD хороши,

6
ответ дан 3 December 2019 в 00:51

Use RAID6 over RAID10. For mainly read based I/O loads the throughput should be similar when the array is not degraded, you get better redundancy (any two drives can fail at the same time with R6, R10 can not survice if both failed drives are on the same leg (so can only survive four of the six two drive failure combinations in a 4-drive array, I'm not sure off the top of my head how that 4/6 figure scales for larger arrays)), and you get a larger usable array size unless you arrange the drives in 4-drive sub-arrays (see below).

Your space calculation is out, certainly for RAID10. 24*240Gb is 5760Gb with no redundancy (RAID0 or JBOD). With RAID10 you'll get only 2880Gb as there are (ussually) two exact copies of every block. If you use all the drives as one large RAID6 array you will get your 5Tb (5280Gb, two drives worth of parity info spread over the array) but I personally would be more paranoid and create smaller RAID6 arrays and join them with RAID0 or JBOD - that way you have shorter rebuild times when drives are replaced and you can survive more drives failing at once in many cases (two drives per leg can die, rather than two drives out of the total 24, without the array becoming useless). With four drives per leg you get the same amount of space as RAID10. Four 6-drive arrays may be a good compromise (4*4*240=3840Gb usable space) or three 8-drive arrays (3*6*240=4320Gb usable space).

With regard to controllers: these can be a single-point-of-failure for RAID. If the controller dies you lose all the drives attached to it at once. While such failures are pretty rare (random corruption is more common) there is no harm in taking care to reduce the impact should it happen to you. If you use RAID10 make sure that no pair of drives are both on the same controller (which means having at least two). If splitting into 4-drive RAID-6 arrays use four controllers and have one drive or a given array on each. This of course assumes you are using software RAID and simple controllers which might be unlikely (you are spending this much on drives, you may as well get some decent hardware RAID controllers to go with them!).

You should give a thought to a backup solution too if you have not already. RAID will protect your from certain hardware failures but not from many human errors and other potential problems.

7
ответ дан 3 December 2019 в 00:51

Просто купите две карты FusionIO Octal и отразите их - намного проще, намного быстрее (однако может быть немного дороже).

4
ответ дан 3 December 2019 в 00:51

Отвечая на ваши ключевые вопросы:

  1. RAID 6 против RAID 10: вам почти наверняка не нужно беспокоиться об IOPS, если вы используете SSD в качестве основного хранилища.

  2. SLC vs. MLC: Есть более тонкие различия. Если вы собираетесь использовать MLC, я бы посоветовал купить Intel. В серии Intel 320 есть счетчик SMART, который можно использовать для отслеживания степени износа и замены диска до того, как он выйдет из строя.

Однако вы можете посмотреть ZFS на ОС Nexenta (или, возможно, FreeBSD, не уверены в разработке. status), если вы хотите использовать твердотельные накопители для повышения производительности хранилища надежным способом:

  1. ZFS позволяет создать массив "RAID-Z2" (что-то вроде RAID-6) из обычных дисков, которые используют твердотельные накопители для массового чтения (L2ARC ) и писать (ZIL) кеши, позволяя получить преимущества производительности, которые вы ' Мы ищем без затрат на массив all-Flash.

  2. Часто используемые блоки будут считываться с SSD, а блоки, которые используются реже, все равно будут считываться с диска. Все записи сначала будут идти на SSD и фиксироваться на диске, когда это удобно для массива.

  3. Поскольку вам понадобится меньше SSD, вы будете покупать устройства более высокого качества, и у вас не будет такого катастрофического сбоя, как можно ожидать, если вы построите RAID-массив из потребительских устройств MLC от OCZ (или чего-то еще).

  4. Даже если вы не используете высококачественные устройства, последствия будут менее серьезными. Если вы используете устройства MLC для ZFS L2ARC и они не работают, ваши данные все равно сохраняются на диске.

4
ответ дан 3 December 2019 в 00:51

150 тыс. Операций ввода-вывода в секунду с блоками 4 тыс. - это пропускная способность 585 Мбит / с. Убедитесь, что ваш контроллер и объединительная плата справятся с этим. Что касается рейда, помните, что защита от сбоев SSD - это все, что вам нужно. Сбой контроллера (или сбой памяти, сбой процессора или сбой любой другой единственной точки отказа на сервере) сделает ваши данные непригодными для использования. Синхронизация другого идентичного сервера потребуется, чтобы избежать простоев и, возможно, вернуться к ленте.

Этот второй сервер, если он будет заполнен твердотельными накопителями, такими как первый, может сделать его почти дешевле, чем покупка централизованного хранилища устройство, поддерживающее SSD, если у него нет единых точек отказа. Однако если вы синхронизируете второй сервер с использованием реальных жестких дисков, вы можете сохранить большую часть изменений, не влияя на производительность. Поскольку большая часть операций ввода-вывода выполняется при чтении, нагрузка на диски будет минимальной, за исключением случаев, когда основной сервер отключен. Это даст вам финансовую гибкость, чтобы купить более одной цели репликации и, возможно, даже переместить часть сайта в случае сбоя сайта.

3
ответ дан 3 December 2019 в 00:51

Вы можете полностью избежать проблемы с RAID-контроллером, используя ZFS - он может обнаруживать И ИСПРАВИТЬ незаметное повреждение (ошибки данных, прошедшие проверки ECC), которые практически ни один RAID-контроллер не может обнаружить (обнаружить да, но не исправить), а на больших дисках (2Tb +) вы можете ожидать 1-2 ошибки в год на каждый диск.

К сожалению, если вы хотите этого при поддержке поставщика, вам придется использовать Solaris. Некоторые поставщики Linux поддерживают его, но это все еще бета-продукт (тем не менее, я использую его в Linux, и я обнаружил, что его практически невозможно убить, вплоть до извлечения нескольких дисков из их отсеков, пока они горячие. В худшем случае массив закрывается вниз - но нет повреждения данных)

1
ответ дан 3 December 2019 в 00:51

Выполнение всего этого на одном сервере с дорогими дисками может быть не лучшим решением. Учитывая ваш бюджет и потребности, я бы рекомендовал взглянуть на STF. Он был разработан как хранилище изображений для одной из крупнейших служб ведения блогов в Японии:

https://github.com/stf-storage/stf

0
ответ дан 3 December 2019 в 00:51

Теги

Похожие вопросы