fluid.clip
ErrorClipByValue
将张量值的范围压缩到 [min, max]。
给定一个张量 t
,该操作将它的值压缩到 min
和 max
之间
- 任何小于最小值的值都被设置为最小值
- 任何大于max的值都被设置为max
- 参数:
- max (foat) - 要修剪的最大值。
- min (float) - 要修剪的最小值。如果用户没有设置,将被
framework
设置为-max
代码示例
- var = fluid.framework.Variable(..., error_clip=ErrorClipByValue(max=5.0), ...)
GradientClipByGlobalNorm
通过多个张量的范数之和的比率来剪切(clip)多个张量。
给定一个张量列表 (t_list) 和一个剪切比率 clip_norm
,返回一个被剪切的张量列表list_clipped和 (t_list) 中所有张量的全局范数(global_norm)。
剪切过程如下:
[\begin{split}\t_list[i]=t_list[i]∗\frac{clip_norm}{max(global_norm,clip_norm)}\\end{split}]
其中:
[\begin{split}\global_norm=\sqrt{\sum_{i=0}^{n-1}(l2norm(t_list[i]))^2}\\end{split}]
如果 (clip_norm>global_norm) , (t_list) 中的张量保持不变,否则它们都会按照全局比率缩减。
- 参数:
-
- clip_norm (float) - 范数最大值
- group_name (str, optional) - 剪切的组名
代码示例
- p_g_clip = fluid.backward.append_backward(loss=avg_cost_clip)
- with fluid.program_guard(main_program=prog_clip):
- fluid.clip.set_gradient_clip(
- fluid.clip.GradientClipByGlobalNorm(clip_norm=2.0))
- p_g_clip = fluid.clip.append_gradient_clip_ops(p_g_clip)
GradientClipByNorm
将张量转换为L2范数不超过
clip_norm
的张量
该operator 限制了 输入张量 (X) 的L2范数不会超过 (max_norm) 。如果 (X) 的 L2
范数小于或等于 (max_norm) ,输出和 (X) 一样,如果 (X) 的L2范数大于 (max_norm) , (X) 将被线性缩放到L2范数等于 (max_norm) ,如以下公式所示:
[\begin{split}\Out = \frac{max_norm∗X}{norm(X)}\\end{split}]
其中 (norm(X)) 代表 (X) 的 L2 范数
- 参数:
-
- clip_norm (float) - 二范数最大值
代码示例
- w_param_attrs = fluid.ParamAttr(name=None,
- initializer=fluid.initializer.UniformInitializer(low=-1.0, high=1.0, seed=0),
- learning_rate=1.0,
- regularizer=fluid.regularizer.L1Decay(1.0),
- trainable=True,
- clip=fluid.clip.GradientClipByNorm(clip_norm=2.0))
- y_predict = fluid.layers.fc(input=x, size=1, param_attr=w_param_attrs)
GradientClipByValue
将梯度值(gradient values)的范围压缩到 [min, max]。
给定一个张量 t
,该操作将它的值压缩到 min
和 max
之间
- 任何小于最小值的值都被设置为最小值
- 任何大于max的值都被设置为max
- 参数:
- max (foat) - 要修剪的最大值。
- min (float,optional) - 要修剪的最小值。如果用户没有设置,将被
framework
设置为-max
。
代码示例
- w_param_attrs = fluid.ParamAttr(name=None,
- initializer=fluid.initializer.UniformInitializer(low=-1.0, high=1.0, seed=0),
- learning_rate=1.0,
- regularizer=fluid.regualrizer.L1Decay(1.0),
- trainable=True,
- clip=fluid.clip.GradientClipByValue(-1.0, 1.0))
- y_predict = fluid.layers.fc(input=x, size=1, param_attr=w_param_attrs)
原文: http://paddlepaddle.org/documentation/docs/zh/1.3/api_cn/clip_cn.html