Я запускаю виртуальную машину GCP Datalab со следующими характеристиками :
n1-highmem-16 (16 vCPUs, 104 GB memory)
Несмотря на значительный объем оперативной памяти, когда я пытаюсь запустить свой обучающий скрипт с набором данных размером 300 МБ, происходит сбой ядра. Код обучает NN, и он отлично проходит этапы обучения, но при оценке на тестовом наборе он дает сбой - никаких ошибок не возникает.
Кто-нибудь знает, почему это так, или как я могу узнать?
РЕДАКТИРОВАТЬ: В приглашении, которое появляется при сбое, говорится следующее:
«ядро, похоже, умерло. Оно автоматически перезапустится jupyter блокнот "
Я добавляю это в качестве комментария:
Вы уже пробовали это решение [1] последний комментарий?
Хороший метод, который стоит попробовать (я помещаю это в начало любого скрипта с использованием tensorflow или keras). Это предотвращает ошибку исчерпания ресурсов при условии, что размер пакета находится в разумных пределах.