неопределенные переменные в /etc/apache2/apache2.conf

Я запускаю виртуальную машину GCP Datalab со следующими характеристиками :

n1-highmem-16 (16 vCPUs, 104 GB memory)

Несмотря на значительный объем оперативной памяти, когда я пытаюсь запустить свой обучающий скрипт с набором данных размером 300 МБ, происходит сбой ядра. Код обучает NN, и он отлично проходит этапы обучения, но при оценке на тестовом наборе он дает сбой - никаких ошибок не возникает.

Кто-нибудь знает, почему это так, или как я могу узнать?

РЕДАКТИРОВАТЬ: В приглашении, которое появляется при сбое, говорится следующее:

«ядро, похоже, умерло. Оно автоматически перезапустится jupyter блокнот "

1
задан 5 March 2018 в 18:40
1 ответ

Я добавляю это в качестве комментария:

Вы уже пробовали это решение [1] последний комментарий?

Хороший метод, который стоит попробовать (я помещаю это в начало любого скрипта с использованием tensorflow или keras). Это предотвращает ошибку исчерпания ресурсов при условии, что размер пакета находится в разумных пределах.

import tensorflow as tf config = tf.ConfigProto () config.gpu_options.allow_growth = True Теперь при создании сеанса передайте ему эту конфигурацию. сесс = tf.Session (config = config)

[1] https://github.com/tensorflow/tensorflow/issues/9829

0
ответ дан 4 December 2019 в 04:13

Теги

Похожие вопросы