sigmoid_cross_entropy_with_logits
paddle.fluid.layers.sigmoid_cross_entropy_with_logits
(x, label, ignore_index=-100, name=None, normalize=False)[源代码]
在每个类别独立的分类任务中,该OP可以计算按元素的概率误差。可以将其视为预测数据点的标签,其中标签不是互斥的。例如,一篇新闻文章可以同时关于政治,科技,体育或者同时不包含这些内容。
logistic loss可通过下式计算:
已知:
代入上方计算logistic loss公式中:
为了计算稳定性,防止
溢出,当
时,loss将采用以下公式计算:
输入 X
和 label
都可以携带LoD信息。然而输出仅采用输入 X
的LoD。
参数
x (Variable) - (Tensor, 默认 Tensor<float>),形为 N x D 的二维张量,N为batch大小,D为类别数目。该输入是一个由先前运算得出的logit组成的张量。logit是未标准化(unscaled)的log概率, 公式为
, 数据类型为float32或float64。
- label (Variable) - (Tensor, 默认 Tensor<float>) 具有和
X
相同数据类型,相同形状的二维张量。该输入张量代表了每个logit的可能标签。- ignore_index (int) - (int,默认kIgnoreIndex)指定被忽略的目标值,它不会影响输入梯度。
- name (str,可选) – 具体用法请参见 Name ,一般无需设置,默认值为None。
- normalize (bool) - 如果为true,则将输出除以除去ignore_index对应目标外的目标数,默认为False。
返回
Variable(Tensor, 默认Tensor<float>), 形为 N x D 的二维张量,其值代表了按元素的logistic loss,数据类型为float32或float64。
返回类型
变量(Variable)
代码示例
import paddle.fluid as fluid
input = fluid.layers.data(
name='data', shape=[10], dtype='float32')
label = fluid.layers.data(
name='data', shape=[10], dtype='float32')
loss = fluid.layers.sigmoid_cross_entropy_with_logits(
x=input,
label=label,
ignore_index=-1,
normalize=True) # or False
# loss = fluid.layers.reduce_sum(loss) # loss之和