如何返回 Keras 的验证损失历史记录

使用 Anaconda Python 2.7 Windows 10。

我正在用克拉斯的例子训练一个语言模型:

print('Build model...')
model = Sequential()
model.add(GRU(512, return_sequences=True, input_shape=(maxlen, len(chars))))
model.add(Dropout(0.2))
model.add(GRU(512, return_sequences=False))
model.add(Dropout(0.2))
model.add(Dense(len(chars)))
model.add(Activation('softmax'))


model.compile(loss='categorical_crossentropy', optimizer='rmsprop')


def sample(a, temperature=1.0):
# helper function to sample an index from a probability array
a = np.log(a) / temperature
a = np.exp(a) / np.sum(np.exp(a))
return np.argmax(np.random.multinomial(1, a, 1))




# train the model, output generated text after each iteration
for iteration in range(1, 3):
print()
print('-' * 50)
print('Iteration', iteration)
model.fit(X, y, batch_size=128, nb_epoch=1)
start_index = random.randint(0, len(text) - maxlen - 1)


for diversity in [0.2, 0.5, 1.0, 1.2]:
print()
print('----- diversity:', diversity)


generated = ''
sentence = text[start_index: start_index + maxlen]
generated += sentence
print('----- Generating with seed: "' + sentence + '"')
sys.stdout.write(generated)


for i in range(400):
x = np.zeros((1, maxlen, len(chars)))
for t, char in enumerate(sentence):
x[0, t, char_indices[char]] = 1.


preds = model.predict(x, verbose=0)[0]
next_index = sample(preds, diversity)
next_char = indices_char[next_index]


generated += next_char
sentence = sentence[1:] + next_char


sys.stdout.write(next_char)
sys.stdout.flush()
print()

根据 Kera 文档,model.fit方法返回一个 History 回调函数,该函数具有一个 History 属性,其中包含连续损失列表和其他指标。

hist = model.fit(X, y, validation_split=0.2)
print(hist.history)

在训练我的模型之后,如果我运行 print(model.history),我会得到错误:

 AttributeError: 'Sequential' object has no attribute 'history'

在使用上述代码训练模型之后,如何返回模型历史记录?

更新

问题在于:

必须首先界定以下内容:

from keras.callbacks import History
history = History()

必须调用回调选项

model.fit(X_train, Y_train, nb_epoch=5, batch_size=16, callbacks=[history])

但现在如果我打印

print(history.History)

它回来了

{}

尽管我做了一个迭代。

174860 次浏览

具有“ acc”、“ loss”等历史记录的字典可用并保存在 hist.history变量中。

已经解决了。

这些损失只能留给历史在这些时代。我运行的是迭代,而不是使用内置在时代中的 Kera 选项。

所以我现在不再做4次迭代了

model.fit(......, nb_epoch = 4)

现在,它返回了每一个纪元的损失:

print(hist.history)
{'loss': [1.4358016599558268, 1.399221191623641, 1.381293383180471, 1.3758836857303727]}

这只是一个例子

history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=0)

你可以用

print(history.history.keys())

列出历史上所有的数据。

然后,您可以像下面这样打印验证丢失的历史记录:

print(history.history['val_loss'])

另一个选项是 CSVLogger: https://keras.io/callbacks/#csvlogger。 它创建一个 csv 文件,附加每个纪元的结果。即使你中断了训练,你也能看到它是如何进化的。

我还发现,你可以使用 verbose=2打印出卡拉损失:

history = model.fit(X, Y, validation_split=0.33, nb_epoch=150, batch_size=10, verbose=2)

这样就能打印出像这样的漂亮线条:

Epoch 1/1
- 5s - loss: 0.6046 - acc: 0.9999 - val_loss: 0.4403 - val_acc: 0.9999

根据他们的 文件:

verbose: 0, 1, or 2. Verbosity mode. 0 = silent, 1 = progress bar, 2 = one line per epoch.

下面这些简单的代码对我来说非常有用:

    seqModel =model.fit(x_train, y_train,
batch_size      = batch_size,
epochs          = num_epochs,
validation_data = (x_test, y_test),
shuffle         = True,
verbose=0, callbacks=[TQDMNotebookCallback()]) #for visualization

确保将适合函数分配给一个输出变量,然后就可以非常容易地访问该变量

# visualizing losses and accuracy
train_loss = seqModel.history['loss']
val_loss   = seqModel.history['val_loss']
train_acc  = seqModel.history['acc']
val_acc    = seqModel.history['val_acc']
xc         = range(num_epochs)


plt.figure()
plt.plot(xc, train_loss)
plt.plot(xc, val_loss)

希望这个能帮上忙。 资料来源: < a href = “ https://keras.io/getting-start/faq/# how-can-i-record-the-training-valid- loss-error-at-each-epoch”rel = “ noReferrer”> https://keras.io/getting-started/faq/#how-can-i-record-the-training-validation-loss-accuracy-at-each-epoch

实际上,您也可以使用迭代方法来做到这一点。因为有时我们可能需要使用迭代方法来代替内置的纪元方法,以可视化训练结果后,每次迭代。

history = [] #Creating a empty list for holding the loss later
for iteration in range(1, 3):
print()
print('-' * 50)
print('Iteration', iteration)
result = model.fit(X, y, batch_size=128, nb_epoch=1) #Obtaining the loss after each training
history.append(result.history['loss']) #Now append the loss after the training to the list.
start_index = random.randint(0, len(text) - maxlen - 1)
print(history)

这种方法允许您在维护迭代方法的同时获得您想要的损失。

为了直接绘制损失图,需要进行以下工作:

import matplotlib.pyplot as plt
...
model_ = model.fit(X, Y, epochs= ..., verbose=1 )
plt.plot(list(model_.history.values())[0],'k-o')

那些像我一样仍然犯错误的人:

model.fit_generator()转换为 model.fit()

多亏了阿鲁什,

model.fit()中必须包含以下参数:

validation_data = (x_test, y_test)

如果它没有被定义,val_accval_loss将不会 在输出端存在。

你可以得到损失和指标如下: 返回的历史对象是 dictionary,您可以访问模型丢失(val _ loss)或准确性(val _ error) ,如下所示:

model_hist=model.fit(train_data,train_lbl,epochs=my_epoch,batch_size=sel_batch_size,validation_data=val_data)


acc=model_hist.history['accuracy']


val_acc=model_hist.history['val_accuracy']


loss=model_hist.history['loss']


val_loss=model_hist.history['val_loss']

不要忘记,为了获得 val _ loss 或 val _ error,您应该在“ fit”函数中指定验证数据。

history = model.fit(partial_train_data, partial_train_targets,
validation_data=(val_data, val_targets),
epochs=num_epochs, batch_size=1, verbose=0)
mae_history = history.history['val_mean_absolute_error']


I had the same problem. The following code worked  for me.


mae_history = history.history['val_mae']