softmax_with_cross_entropy
paddle.nn.functional. softmax_with_cross_entropy ( logits, label, soft_label=False, ignore_index=- 100, numeric_stable_mode=True, return_softmax=False, axis=- 1 ) [源代码]
该OP实现了softmax交叉熵损失函数。该函数会将softmax操作、交叉熵损失函数的计算过程进行合并,从而提供了数值上更稳定的梯度值。
因为该运算对 logits
的 axis
维执行softmax运算,所以它需要未缩放的 logits
。该运算不应该对softmax运算的输出进行操作,否则会产生错误的结果。
当 soft_label
为 False
时, label
除了 axis
维度上的形状为1,其余维度和 logits
一致,表示一批数据中的每一个样本仅可分类到一个类别。
涉及到的等式如下:
- 硬标签(每个样本仅可分到一个类别)
- 软标签(每个样本以一定的概率被分配至多个类别中,概率和为1)
- 如果
numeric_stable_mode
为True
,softmax结果首先经由下式计算得出,然后使用softmax结果和label
计算交叉熵损失。
maxjlog_max_sumjsoftmaxj=maxi=0Klogitsi=log∑i=0Kexp(logitsi−maxj)=exp(logitsj−maxj−log_max_sumj)maxj=maxi=0Klogitsilog_max_sumj=log∑i=0Kexp(logitsi−maxj)softmaxj=exp(logitsj−maxj−log_max_sumj)
参数:
logits (Tensor) - 维度为任意维的多维
Tensor
,数据类型为float32或float64。表示未缩放的输入。label (Tensor) - 如果
soft_label
为True,label
是一个和logits
维度相同的的Tensor
。如果soft_label
为False,label
是一个在axis维度上大小为1,其它维度上与logits
维度相同的Tensor
。soft_label (bool, 可选) - 指明是否将输入标签当作软标签。默认值:False。
ignore_index (int, 可选) - 指明要无视的目标值,使其不对输入梯度有贡献。仅在
soft_label
为False时有效,默认值:kIgnoreIndex(-100)。numeric_stable_mode (bool, 可选) – 指明是否使用一个具有更佳数学稳定性的算法。仅在
soft_label
为 False的GPU模式下生效。若soft_label
为 True或者执行设备为CPU,算法一直具有数学稳定性。注意使用稳定算法时速度可能会变慢。默认值:True。return_softmax (bool, 可选) – 指明是否在返回交叉熵计算结果的同时返回softmax结果。默认值:False。
axis (int, 可选) – 执行softmax计算的维度索引。其范围为 [−1,rank−1][−1,rank−1] ,其中
rank
是输入logits
的秩。默认值:-1。
返回:
如果
return_softmax
为 False,则返回交叉熵损失结果的Tensor
,数据类型和logits
一致,除了axis
维度上的形状为1,其余维度和logits
一致。如果
return_softmax
为 True,则返回交叉熵损失结果的Tensor
和softmax结果的Tensor
组成的元组。其中交叉熵损失结果的数据类型和logits
一致,除了axis
维度上的形状为1,其余维度上交叉熵损失结果和logits
一致;softmax结果的数据类型和logits
一致,维度和logits
一致。
返回类型:变量或者两个变量组成的元组
代码示例
import paddle
import numpy as np
data = np.random.rand(128).astype("float32")
label = np.random.rand(1).astype("int64")
data = paddle.to_tensor(data)
label = paddle.to_tensor(label)
linear = paddle.nn.Linear(128, 100)
x = linear(data)
out = paddle.nn.functional.softmax_with_cross_entropy(logits=x, label=label)
print(out)