WeightNormParamAttr
注意:该API仅支持【静态图】模式
- class
paddle.fluid.
WeightNormParamAttr
(dim=None, name=None, initializer=None, learning_rate=1.0, regularizer=None, trainable=True, gradient_clip=None, do_model_average=False)[源代码]
该类定义了权重归一化(Weight Normalization)的参数。权重归一化可以将神经网络中权重向量的长度与其方向解耦,详细的定义与实现可以参考论文:Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
- 参数:
- dim (int) - 进行归一化操作(norm)的切片所在维度,是小于权重Tensor rank的非负数。比如卷积的权重shape是 , rank是4,则dim可以选0,1,2,3;fc的权重shape是 ,rank是2,dim可以选0,1。 dim 默认为None,如果为None就对所有元素做归一化(norm)。
- name (None|str) - 该参数供开发人员打印调试信息时使用,具体用法请参见 Name ,默认为None。
- initializer (Initializer) - 初始化参数方法,例如
initializer = fluid.initializer.ConstantInitializer(1.0)
。默认为None,如果为None则使用默认初始化函数 Xavier() 。 - learning_rate (float32) - 学习率,优化过程 的学习速率,默认为1.0。
- regularizer (WeightDecayRegularizer) - 正则化方法,例如
regularizer = fluid.regularizer.L2DecayRegularizer(regularization_coeff=0.1)
。默认为None,如果为None则对权重不做正则化。 - trainable (bool) - 可选,指明参数是否可训练,默认为True。
- gradient_clip - 梯度裁剪(Gradient Clipping)的方法,例如
gradient_clip = fluid.clip.GradientClipByNorm(clip_norm=2.0))
。默认为None,如果为None则对权重不做裁剪。 - do_model_average (bool) - 可选,指明参数是否需要模型平均化操作(Model Average),默认为False。
代码示例
- import paddle.fluid as fluid
- data = fluid.layers.data(name="data", shape=[3, 32, 32], dtype="float32")
- fc = fluid.layers.fc(input=data,
- size=1000,
- param_attr=fluid.WeightNormParamAttr(
- dim=None,
- name='weight_norm_param',
- initializer=fluid.initializer.ConstantInitializer(1.0),
- learning_rate=1.0,
- regularizer=fluid.regularizer.L2DecayRegularizer(regularization_coeff=0.1),
- trainable=True,
- gradient_clip=fluid.clip.GradientClipByNorm(clip_norm=2.0),
- do_model_average=False))