SyncBatchNorm
class paddle.nn.SyncBatchNorm
( num_features, epsilon\=1e-5, momentum\=0.9, weight_attr\=None, bias_attr\=None, data_format\=’NCHW’, name\=None ) [源代码]
该接口用于构建 SyncBatchNorm
类的一个可调用对象,具体用法参照 代码示例
。实现了跨卡GPU同步的批归一化(Cross-GPU Synchronized Batch Normalization Layer)的功能,可用在其他层(类似卷积层和全连接层)之后进行归一化操作。根据所有GPU同一批次的数据按照通道计算的均值和方差进行归一化。更多详情请参考 : Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
当模型处于训练模式时,
和
是所有GPU上同一minibatch的统计数据。计算公式如下:
-
: 所有GPU上同一批输入数据
-
: 所有GPU上同一批次数据的大小
当模型处于评估模式时,
和 σ2βσβ2 是全局(或运行)统计数据(moving_mean和moving_variance, 这两个统计量通常来自预先训练好的模型)。计算公式如下:
moving_mean\=moving_mean∗momentum+μβ∗(1.−momentum)moving_variance\=moving_variance∗momentum+σ2β∗(1.−momentum)//globalmean//globalvariancemoving_mean\=moving_mean∗momentum+μβ∗(1.−momentum)//globalmeanmoving_variance\=moving_variance∗momentum+σβ2∗(1.−momentum)//globalvariance
归一化函数公式如下:
xi^yi←xi−μβσ2β+ϵ‾‾‾‾‾‾√←γxi^+β//normalize//scale−and−shiftxi^←xi−μβσβ2+ϵ//normalizeyi←γxi^+β//scale−and−shift
ϵϵ : 添加较小的值到方差中以防止除零
γγ : 可训练的比例参数
ββ : 可训练的偏差参数
注解
如果您想用容器封装您的模型,而且您的模型在预测阶段中包含 SyncBatchNorm
这个算子的话,请使用 nn.LayerList
或者 nn.Sequential
而不要直接使用 list
来封装模型。
参数:
num_features (int) - 指明输入
Tensor
的通道数量。epsilon (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。
momentum (float, 可选) - 此值用于计算
moving_mean
和moving_var
。默认值:0.9。更新公式如上所示。weight_attr (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果设置为
False
,则表示本层没有可训练的权重参数。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr 。bias_attr (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。如果设置为
False
,则表示本层没有可训练的偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr 。
形状:
input: 一个二维到五维的
Tensor
。output: 和input 相同形状的
Tensor
。
代码示例
import paddle
import paddle.nn as nn
import numpy as np
x = np.array([[[[0.3, 0.4], [0.3, 0.07]], [[0.83, 0.37], [0.18, 0.93]]]]).astype('float32')
x = paddle.to_tensor(x)
if paddle.is_compiled_with_cuda():
sync_batch_norm = nn.SyncBatchNorm(2)
hidden1 = sync_batch_norm(x)
print(hidden1)
# [[[[0.26824948, 1.0936325],[0.26824948, -1.6301316]],[[ 0.8095662, -0.665287],[-1.2744656, 1.1301866 ]]]]
方法
convert_sync_batchnorm(layer)
该接口用于把 BatchNorm*d
层转换为 SyncBatchNorm
层。
参数:
- layer (paddle.nn.Layer) - 包含一个或多个
BatchNorm*d
层的模型。
返回:
如果原始模型中有 BatchNorm*d
层, 则把 BatchNorm*d
层转换为 SyncBatchNorm
层的原始模型。
代码示例
import paddle
import paddle.nn as nn
model = nn.Sequential(nn.Conv2D(3, 5, 3), nn.BatchNorm2D(5))
sync_model = nn.SyncBatchNorm.convert_sync_batchnorm(model)