elu
paddle.fluid.layers.
elu
(x, alpha=1.0, name=None)[源代码]
ELU激活层(ELU Activation Operator)
根据 https://arxiv.org/abs/1511.07289 对输入Tensor中每个元素应用以下计算。
- 参数:
- x (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。
- alpha (float, 可选) - ELU的alpha值,默认值为1.0。
- name (str, 可选) - 具体用法请参见 Name,一般无需设置,默认值为None。
返回: 输出为Tensor,与 x
维度相同、数据类型相同。
返回类型: Variable
代码示例
- import paddle.fluid as fluid
- import numpy as np
- input_elu = np.array([[-1,6],[1,15.6]])
- with fluid.dygraph.guard():
- x = fluid.dygraph.to_variable(input_elu)
- y = fluid.layers.elu(x, alpha=0.2)
- print(y.numpy())
- # [[-0.12642411 6. ]
- # [ 1. 15.6 ]]