LayerNorm

class paddle.nn. LayerNorm ( normalized_shape, epsilon=1e-05, weight_attr=None, bias_attr=None, name=None ) [源代码]

该接口用于构建 LayerNorm 类的一个可调用对象,具体用法参照 代码示例 。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:Layer Normalization

计算公式如下

LayerNorm - 图1

  • LayerNorm - 图2

    : 该层神经元的向量表示

  • LayerNorm - 图3

    : 层中隐藏神经元个数

  • ϵϵ : 添加较小的值到方差中以防止除零

  • gg : 可训练的比例参数

  • bb : 可训练的偏差参数

参数:

  • normalized_shape (int 或 list 或 tuple) – 需规范化的shape,期望的输入shape为 [*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]] 。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。

  • epsilon (float, 可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。

  • weight_attr (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果为False固定为1,不进行学习。默认值为None, 表示使用默认的权重参数属性。具体用法请参见 ParamAttr

  • bias_attr (ParamAttr, 可选) - 指定偏置参数属性的对象。如果为False固定为0,不进行学习。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr

  • name (string, 可选) – LayerNorm的名称, 默认值为None。更多信息请参见 Name

返回:无

形状:

  • input: 2-D, 3-D, 4-D或5D 的Tensor。

  • output: 和输入形状一样。

代码示例

  1. import paddle
  2. import numpy as np
  3. np.random.seed(123)
  4. x_data = np.random.random(size=(2, 2, 2, 3)).astype('float32')
  5. x = paddle.to_tensor(x_data)
  6. layer_norm = paddle.nn.LayerNorm(x_data.shape[1:])
  7. layer_norm_out = layer_norm(x)
  8. print(layer_norm_out)