损失函数的使用

损失函数(或称目标函数、优化评分函数)是编译模型时所需的两个参数之一:

  1. model.compile(loss='mean_squared_error', optimizer='sgd')
  1. from keras import losses
  2. model.compile(loss=losses.mean_squared_error, optimizer='sgd')

你可以传递一个现有的损失函数名,或者一个TensorFlow/Theano符号函数。
该符号函数为每个数据点返回一个标量,有以下两个参数:

  • y_true: 真实标签. TensorFlow/Theano张量。
  • y_pred: 预测值. TensorFlow/Theano张量,其shape与y_true相同。

实际的优化目标是所有数据点的输出数组的平均值。

有关这些函数的几个例子,请查看losses source

可用损失函数

mean_squared_error

  1. mean_squared_error(y_true, y_pred)

mean_absolute_error

  1. mean_absolute_error(y_true, y_pred)

mean_absolute_percentage_error

  1. mean_absolute_percentage_error(y_true, y_pred)

mean_squared_logarithmic_error

  1. mean_squared_logarithmic_error(y_true, y_pred)

squared_hinge

  1. squared_hinge(y_true, y_pred)

hinge

  1. hinge(y_true, y_pred)

categorical_hinge

  1. categorical_hinge(y_true, y_pred)

logcosh

  1. logcosh(y_true, y_pred)

预测误差的双曲余弦的对数。

对于小的xlog(cosh(x))近似等于(x ** 2) / 2。对于大的x,近似于abs(x) - log(2)。这表示’logcosh’与均方误差大致相同,但是不会受到偶尔疯狂的错误预测的强烈影响。

Arguments

  • y_true: 目标真实值的张量。
  • y_pred: 目标预测值的张量。

Returns

每个样本都有一个标量损失的张量。


categorical_crossentropy

  1. categorical_crossentropy(y_true, y_pred)

sparse_categorical_crossentropy

  1. sparse_categorical_crossentropy(y_true, y_pred)

binary_crossentropy

  1. binary_crossentropy(y_true, y_pred)

kullback_leibler_divergence

  1. kullback_leibler_divergence(y_true, y_pred)

poisson

  1. poisson(y_true, y_pred)

cosine_proximity

  1. cosine_proximity(y_true, y_pred)

注意: 当使用categorical_crossentropy损失时,你的目标值应该是分类格式 (即,如果你有10个类,每个样本的目标值应该是一个10维的向量,这个向量除了表示类别的那个索引为1,其他均为0)。 为了将 整数目标值 转换为 分类目标值,你可以使用Keras实用函数to_categorical

  1. from keras.utils.np_utils import to_categorical
  2. categorical_labels = to_categorical(int_labels, num_classes=None)