softmax_with_cross_entropy

paddle.nn.functional. softmax_with_cross_entropy ( logits, label, soft_label=False, ignore_index=- 100, numeric_stable_mode=True, return_softmax=False, axis=- 1 ) [源代码]

该OP实现了softmax交叉熵损失函数。该函数会将softmax操作、交叉熵损失函数的计算过程进行合并,从而提供了数值上更稳定的梯度值。

因为该运算对 logitsaxis 维执行softmax运算,所以它需要未缩放的 logits 。该运算不应该对softmax运算的输出进行操作,否则会产生错误的结果。

soft_labelFalse 时, label 除了 axis 维度上的形状为1,其余维度和 logits 一致,表示一批数据中的每一个样本仅可分类到一个类别。

涉及到的等式如下:

  1. 硬标签(每个样本仅可分到一个类别)

softmax_with_cross_entropy - 图1

  1. 软标签(每个样本以一定的概率被分配至多个类别中,概率和为1)

softmax_with_cross_entropy - 图2

  1. 如果 numeric_stable_modeTrue ,softmax结果首先经由下式计算得出,然后使用softmax结果和 label 计算交叉熵损失。

maxjlog_max_sumjsoftmaxj=maxi=0Klogitsi=log∑i=0Kexp(logitsi−maxj)=exp(logitsj−maxj−log_max_sumj)maxj=maxi=0Klogitsilog_max_sumj=log⁡∑i=0Kexp⁡(logitsi−maxj)softmaxj=exp⁡(logitsj−maxj−log_max_sumj)

参数:

  • logits (Tensor) - 维度为任意维的多维 Tensor ,数据类型为float32或float64。表示未缩放的输入。

  • label (Tensor) - 如果 soft_label 为True, label 是一个和 logits 维度相同的的 Tensor 。如果 soft_label 为False, label 是一个在axis维度上大小为1,其它维度上与 logits 维度相同的 Tensor

  • soft_label (bool, 可选) - 指明是否将输入标签当作软标签。默认值:False。

  • ignore_index (int, 可选) - 指明要无视的目标值,使其不对输入梯度有贡献。仅在 soft_label 为False时有效,默认值:kIgnoreIndex(-100)。

  • numeric_stable_mode (bool, 可选) – 指明是否使用一个具有更佳数学稳定性的算法。仅在 soft_label 为 False的GPU模式下生效。若 soft_label 为 True或者执行设备为CPU,算法一直具有数学稳定性。注意使用稳定算法时速度可能会变慢。默认值:True。

  • return_softmax (bool, 可选) – 指明是否在返回交叉熵计算结果的同时返回softmax结果。默认值:False。

  • axis (int, 可选) – 执行softmax计算的维度索引。其范围为 [−1,rank−1][−1,rank−1] ,其中 rank 是输入 logits 的秩。默认值:-1。

返回:

  • 如果 return_softmax 为 False,则返回交叉熵损失结果的 Tensor ,数据类型和 logits 一致,除了 axis 维度上的形状为1,其余维度和 logits 一致。

  • 如果 return_softmax 为 True,则返回交叉熵损失结果的 Tensor 和softmax结果的 Tensor 组成的元组。其中交叉熵损失结果的数据类型和 logits 一致,除了 axis 维度上的形状为1,其余维度上交叉熵损失结果和 logits 一致;softmax结果的数据类型和 logits 一致,维度和 logits 一致。

返回类型:变量或者两个变量组成的元组

代码示例

  1. import paddle
  2. import numpy as np
  3. data = np.random.rand(128).astype("float32")
  4. label = np.random.rand(1).astype("int64")
  5. data = paddle.to_tensor(data)
  6. label = paddle.to_tensor(label)
  7. linear = paddle.nn.Linear(128, 100)
  8. x = linear(data)
  9. out = paddle.nn.functional.softmax_with_cross_entropy(logits=x, label=label)
  10. print(out)