glibc обнаружил ***/usr/sbin/httpd: свободный (): недопустимый указатель

С интенсивными изменениями данных узкое место обычно является файлом журнала для базы данных. Необходимо также ожидать рост файла журнала, если Вы работаете В полном режиме восстановления и файле автоматической записи (и файл данных), рост является уничтожителем производительности. Полагайте, что переключение на ПРОСТОЕ восстановление на время миграции, делая так минимизирует необходимые площади журнала. Это также помешает Вам иметь для выполнения частых резервных копирований журнала транзакций, которые должны считать файл журнала, переместив головки диска и замедлят материал. Если у Вас есть многоступенчатый процесс миграции ("Запущенный эта программа сначала, то запущенный эта другая программа, и т.д. и т.д."), можно просто взять ДИФФЕРЕНЦИАЛЬНОЕ РЕЗЕРВНОЕ КОПИРОВАНИЕ (или даже Полное резервное копирование) между шагами.

Я предлагаю, чтобы Вы изолировали файл журнала от файлов данных путем перемещения файла журнала прочь SAN и помещения его на зеркальную пару дисков SAS. Причина этого состоит в том, что ввод-вывод к файлу журнала синхронен, в то время как чтения из файла (файлов) данных часто кэшируются, и записи, по большей части, асинхронные. Это означает, что ввод-вывод к файлу журнала более строго ограничен во времени, чем ввод-вывод к файлам данных. Перемещение файла журнала переместит часть требования пропускной способности средств ввода-вывода прочь Левого, но что еще более важно это позволит записям журнала происходить последовательно, с мало или перемещение головок диска. Относительно записей журнала перемещение головок диска является производительностью уничтожителем.

Плюс, задержка на паре дисков DAS, вероятно, будет лучше, чем прохождение через переключателя SAN. Это - также победа для тех синхронных записей журнала. Чем через большее количество гаджетов (переключатели, и т.д.) Ваши данные должны пройти между RAM в сервере и дисками, тем больше задержки Вы получите. В конце концов, 15K диски об/мин в SAN не быстрее, чем 15K диски об/мин, что Вы всунули бы свой DL360.

Я знаю, что поставщики SAN скажут Вам, что SAN имеет такой кэш записи в нем, что он не имеет значения и что все записи к журналу будут кэшироваться и de-staged позже, и вычисления дублирования (для RAID5 и подобных типов RAID) быстры освещением, но SAN никогда, кажется, не работают вполне, а также Вы ведетесь надеяться. Я был через этот вид вещи дюжину раз, и фактическая производительность всегда была неутешительна. Надежда на лучшее, но план относительно худшего.

Я говорю, используют зеркальную пару дисков SAS для журнала. Если Вы соглашаетесь с необходимостью восстановить и повторно выполнить Вашу миграцию в (маловероятном) случае сбоя диска, Вы могли пойти RAID 0 или только с 1 диском, если Вы являетесь отчаянными. (Если у Вас есть Левое, Вы являетесь, вероятно, не отчаянными и имеете несколько бродящих вокруг дисков SAS на 143 ГБ или на 72 ГБ.) Я только выполнил бы этот путь временно на время миграции. Обычно, скорость передачи данных к дискам журнала является низкой, возможно, 10 МБ/с или меньше, но задержка на многих маленьких записях держит все. Вы определенно предпочли бы 15K диски об/мин для этой задачи по дискам с более низкими угловыми скоростями вращения, но возможно более высокими средними числами пропускной способности.

Кроме того, Вы захотите отрастить тот файл журнала вручную, заранее, или контролировать свободное пространство в файле журнала очень тесно. Если файл журнала начинает становиться почти полным, вручную отрастите файл журнала. Если Вы сделаете это вручную, то процесс миграции продвинется. Если Вы полагаетесь, авторастут, процесс поддержится на время роста, и всегда кажется, что авторост файла на 1 ГБ занимает больше времени, чем рост его 1 ГБ вручную. После того, как Вы сделаны с процессом, можно уменьшиться, файл журнала отступают к тому, чем это было перед миграцией, и положите обратно его к Левому.

В зависимости от того, как Ваш поставщик написал их код миграции, можно также хотеть много из tempdb. Трудно знать, не пробуя его однажды на тестовом сервере. Если так, можно также получить улучшения путем перемещения tempdb файлов данных на их собственный набор локальных дисков. Для этого я определенно хотел бы RAID10 (не RAID5). Можно пойти с RAID0, если Вы хотите рискнуть им в течение выходных, снова с протестом необходимости восстановить Ваши базы данных и повторно выполнить Вашу миграцию с нуля, если что-то идет "удар". Не полагайтесь на RAID0 после миграции.

Кроме того, удостоверьтесь, что Вы выравниваете свои разделы при создании их на пустых дисках. Это - дешевое повышение производительности.

Независимо от того, что Вы делаете, не забывайте, что копирование всех данных прочь Левого и откладывание его займут существенное количество времени. Я часто должен продвигать приблизительно 1 ТБ между серверами и через NICS на 1 Гбит. Потребуются часы. Сделайте тест с, возможно, одним или двумя файлами на 10 ГБ, определите ожидаемую скорость передачи данных и сделайте математику на том, сколько времени это возьмет для перемещения больших файлов вокруг. Robocopy работает очень хорошо, я использовал его в течение по крайней мере 16 лет.

Еще 0,02$ (если Вы читали настолько далеко): Я не знаю много о Lefthands. Если бы те NICs были выравниванием нагрузки правильно, то я ожидал бы что-то хорошо более чем 175 МБ/с. Я могу поразить приблизительно 115 МБ/с в TCP Ethernet на NICs на 1 Гбит/с без любого вида специального волшебства. Я ожидаю, что iSCSI был бы немного быстрее. Если можно только подать Левое на уровне 100 МБ/с или меньше и эти файлы SQL Server являются единственной вещью на нем, Левая единица походит на $overkill$. Вы могли, вероятно, вытащить ту скорость передачи данных из 2 или 4 потребительских уровней 7 200 об/мин диски SATA. DL360 должен легко смочь к лучшему, которым управляет скорость передачи данных с рядом непосредственно присоединенного 10K SAS.

0
задан 13 April 2017 в 15:14
1 ответ

Поскольку я не испытывал никаких проблем с тех пор Я отключил APC по предложению Майкла Хэмптона, проблемы вроде решены. Мне больше не нужен БТР. Спасибо, Майкл.

0
ответ дан 5 December 2019 в 14:09

Теги

Похожие вопросы