Softmax

class paddle.nn.Softmax ( axis\=- 1, name\=None ) [源代码]

Softmax激活层,OP的计算过程如下:

步骤1:输入 xaxis 维会被置换到最后一维;

步骤2:将输入 x 在逻辑上变换为二维矩阵。二维矩阵第一维(列长度)是输入除最后一维之外的其他维度值的乘积,第二维(行长度)和输入 axis 维的长度相同;对于矩阵的每一行,softmax操作对其进行重新缩放,使得该行的每个元素在 [0,1] 范围内,并且总和为1;

步骤3:softmax操作执行完成后,执行步骤1和步骤2的逆运算,将二维矩阵恢复至和输入 x 相同的维度。

上述步骤2中softmax操作计算过程如下:

  • 对于二维矩阵的每一行,计算K维向量(K是输入第 axis 维的长度)中指定位置的指数值和全部位置指数值的和。

  • 指定位置指数值与全部位置指数值之和的比值就是softmax操作的输出。

对于二维矩阵中的第i行和第j列有:

Softmax - 图1

  • 示例1(矩阵一共有三维。axis = -1,表示沿着最后一维(即第三维)做softmax操作)
  1. # input
  2. x.shape = [2, 3, 4]
  3. x.data = [[[2.0, 3.0, 4.0, 5.0],
  4. [3.0, 4.0, 5.0, 6.0],
  5. [7.0, 8.0, 8.0, 9.0]],
  6. [[1.0, 2.0, 3.0, 4.0],
  7. [5.0, 6.0, 7.0, 8.0],
  8. [6.0, 7.0, 8.0, 9.0]]]
  9. axis = -1
  10. # output
  11. out.shape = [2, 3, 4]
  12. out.data = [[[0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  13. [0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  14. [0.07232949, 0.19661193, 0.19661193, 0.53444665]],
  15. [[0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  16. [0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  17. [0.0320586 , 0.08714432, 0.23688282, 0.64391426]]]
  • 示例2(矩阵一共有三维。axis = 1,表示沿着第二维做softmax操作)
  1. # input
  2. x.shape = [2, 3, 4]
  3. x.data = [[[2.0, 3.0, 4.0, 5.0],
  4. [3.0, 4.0, 5.0, 6.0],
  5. [7.0, 8.0, 8.0, 9.0]],
  6. [[1.0, 2.0, 3.0, 4.0],
  7. [5.0, 6.0, 7.0, 8.0],
  8. [6.0, 7.0, 8.0, 9.0]]]
  9. axis = 1
  10. # output
  11. out.shape = [2, 3, 4]
  12. out.data = [[[0.00657326, 0.00657326, 0.01714783, 0.01714783],
  13. [0.01786798, 0.01786798, 0.04661262, 0.04661262],
  14. [0.97555875, 0.97555875, 0.93623955, 0.93623955]],
  15. [[0.00490169, 0.00490169, 0.00490169, 0.00490169],
  16. [0.26762315, 0.26762315, 0.26762315, 0.26762315],
  17. [0.72747516, 0.72747516, 0.72747516, 0.72747516]]]

参数

  • axis (int, 可选) - 指定对输入Tensor进行运算的轴。axis 的有效范围是[-D, D),D是输入Tensor的维度, axis 为负值时与 axis+Daxis+D 等价。默认值为-1。

  • name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 Name

形状:

  • input: 任意形状的Tensor。

  • output: 和input具有相同形状的Tensor。

代码示例

  1. import paddle
  2. import numpy as np
  3. x = np.array([[[-2.0, 3.0, -4.0, 5.0],
  4. [3.0, -4.0, 5.0, -6.0],
  5. [-7.0, -8.0, 8.0, 9.0]],
  6. [[1.0, -2.0, -3.0, 4.0],
  7. [-5.0, 6.0, 7.0, -8.0],
  8. [6.0, 7.0, 8.0, 9.0]]], 'float32')
  9. x = paddle.to_tensor(x)
  10. m = paddle.nn.Softmax()
  11. out = m(x)
  12. # [[[0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  13. # [0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  14. # [0.07232949, 0.19661193, 0.19661193, 0.53444665]],
  15. # [[0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  16. # [0.0320586 , 0.08714432, 0.23688282, 0.64391426],
  17. # [0.0320586 , 0.08714432, 0.23688282, 0.64391426]]]