BatchNorm

class paddle.nn. BatchNorm ( num_channels, act=None, is_test=False, momentum=0.9, epsilon=1e-05, param_attr=None, bias_attr=None, dtype=’float32’, data_layout=’NCHW’, in_place=False, moving_mean_name=None, moving_variance_name=None, do_model_average_for_mean_and_var=False, use_global_stats=False, trainable_statistics=False ) [源代码]

该接口用于构建 BatchNorm 类的一个可调用对象,具体用法参照 代码示例 。其中实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考 : Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

当use_global_stats = False时,

BatchNorm - 图1

BatchNorm - 图2

是minibatch的统计数据。计算公式如下:

BatchNorm - 图3

  • BatchNorm - 图4

    : 批输入数据

  • BatchNorm - 图5

    : 当前批次数据的大小

当use_global_stats = True时,

BatchNorm - 图6

和 σ2βσβ2 是全局(或运行)统计数据(moving_mean和moving_variance),通常来自预先训练好的模型。计算公式如下:

moving_mean=moving_mean∗momentum+μβ∗(1.−momentum)moving_variance=moving_variance∗momentum+σ2β∗(1.−momentum)//globalmean//globalvariancemoving_mean=moving_mean∗momentum+μβ∗(1.−momentum)//globalmeanmoving_variance=moving_variance∗momentum+σβ2∗(1.−momentum)//globalvariance

归一化函数公式如下:

xi^yi←xi−μβσ2β+ϵ‾‾‾‾‾‾√←γxi^+β//normalize//scale−and−shiftxi^←xi−μβσβ2+ϵ//normalizeyi←γxi^+β//scale−and−shift

  • ϵϵ : 添加较小的值到方差中以防止除零

  • γγ : 可训练的比例参数

  • ββ : 可训练的偏差参数

参数:

  • num_channels (int) - 指明输入 Tensor 的通道数量。

  • act (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 激活函数 ,默认值为None。

  • is_test (bool, 可选) - 指示是否在测试阶段,非训练阶段使用训练过程中统计到的全局均值和全局方差。默认值:False。

  • momentum (float, 可选) - 此值用于计算 moving_meanmoving_var 。默认值:0.9。更新公式如上所示。

  • epsilon (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。

  • param_attr (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr

  • bias_attr (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr

  • dtype (str, 可选) - 指明输入 Tensor 的数据类型,可以为float32或float64。默认值:float32。

  • data_layout (string, 可选) - 指定输入数据格式,数据格式可以为“NCHW”或者“NHWC”。默认值:“NCHW”。

  • in_place (bool, 可选) - 指示 batch_norm 的输出是否可以复用输入内存。默认值:False。

  • moving_mean_name (str, 可选) - moving_mean 的名称,存储全局均值。如果将其设置为None, batch_norm 将随机命名全局均值;否则, batch_norm 将命名全局均值为 moving_mean_name 。默认值:None。

  • moving_variance_name (string, 可选) - moving_var 的名称,存储全局方差。如果将其设置为None, batch_norm 将随机命名全局方差;否则, batch_norm 将命名全局方差为 moving_variance_name 。默认值:None。

  • do_model_average_for_mean_and_var (bool, 可选) - 指示是否为mean和variance做模型均值。默认值:False。

  • use_global_stats (bool, 可选) – 指示是否使用全局均值和方差。在预测或测试模式下,将 use_global_stats 设置为true或将 is_test 设置为true,这两种行为是等效的。在训练模式中,当设置 use_global_stats 为True时,在训练期间也将使用全局均值和方差。默认值:False。

  • trainable_statistics (bool, 可选) - eval模式下是否计算mean均值和var方差。eval模式下,trainable_statistics为True时,由该批数据计算均值和方差。默认值:False。

返回:无

代码示例

  1. import paddle
  2. import numpy as np
  3. x_data = np.random.random(size=(3, 10, 3, 7)).astype('float32')
  4. x = paddle.to_tensor(x_data)
  5. batch_norm = paddle.nn.BatchNorm(10)
  6. batch_norm_out = batch_norm(x)
  7. print(batch_norm_out.shape)
  8. # [3, 10, 3, 7]