dynamic_lstmp

  • paddle.fluid.layers.dynamic_lstmp(input, size, proj_size, param_attr=None, bias_attr=None, use_peepholes=True, is_reverse=False, gate_activation='sigmoid', cell_activation='tanh', candidate_activation='tanh', proj_activation='tanh', dtype='float32', name=None, h_0=None, c_0=None, cell_clip=None, proj_clip=None)[源代码]

注解

在实现的时候为了提升效率,用户必须将输入先进行线性映射,将维度为 [T, hidden_size] 的输入映射为 [T, 4×hidden_size] 输入,然后再传给该OP。

该OP实现了LSTMP(LSTM Projected)层。LSTMP层在LSTM层之后有一个单独的的线性映射层。 — Sak, H., Senior, A., & Beaufays, F. (2014)

与标准的LSTM层相比,LSTMP多出来的线性映射层,用于从原始隐藏状态

dynamic_lstmp - 图1 映射到较低维的状态 dynamic_lstmp - 图2 , 从而减少参数总数和计算复杂度,特别是输出单元相对较大的情况下。

该OP的默认实现方式为 diagonal/peephole 连接,参见 Gers, F. A., & Schmidhuber, J. (2000)。 如果需要禁用 peephole 连接方法,将 use_peepholes 设为 False 即可。

该OP对于序列中每一个时间步的计算公式如下:

dynamic_lstmp - 图3

dynamic_lstmp - 图4

dynamic_lstmp - 图5

dynamic_lstmp - 图6

dynamic_lstmp - 图7

dynamic_lstmp - 图8

dynamic_lstmp - 图9

  • 公式中的概念信息如下:
    • dynamic_lstmp - 图10 表示时间步 dynamic_lstmp - 图11 的输入
    • dynamic_lstmp - 图12 表示时间步 dynamic_lstmp - 图13 的 hidden 状态
    • dynamic_lstmp - 图14 : 隐藏状态循环的映射输出的状态
    • dynamic_lstmp - 图15 分别表示前一个时间步的 hidden 状态,cell 状态和循环映射输出状态
    • dynamic_lstmp - 图16 表示候选的 cell 状态
    • dynamic_lstmp - 图17dynamic_lstmp - 图18dynamic_lstmp - 图19 分别为 input gate,forget gate,output gate
    • dynamic_lstmp - 图20 表示 weight (例如, dynamic_lstmp - 图21 是在计算 input gate dynamic_lstmp - 图22 时,对输入 dynamic_lstmp - 图23 做线性变换的 weight)
    • dynamic_lstmp - 图24 表示 bias (例如, dynamic_lstmp - 图25 是 input gate 的 bias)
    • dynamic_lstmp - 图26 表示 gate 的非线性激活函数,默认为 sigmoid
    • dynamic_lstmp - 图27 分别表示 cell 输入 cell 输出和映射输出的非线性激活函数,默认为 tanh
    • dynamic_lstmp - 图28 表示矩阵的 Hadamard product,即对两个维度相同的矩阵,将相同位置的元素相乘,得到另一个维度相同的矩阵
  • 参数:

dynamic_lstmp - 图29 的多维 LoDTensor(必须在传入该OP前对维度为 dynamic_lstmp - 图30 的输入经过线性变换得到),其中 T 为 batch 中所有样本的长度之和,hidden_size 为隐层大小,数据类型为 float32 或者 float64。

  • size (int) – 必须为 4 * hidden_size。

  • proj_size (int) - 投影映射输出的大小。

  • param_attr (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr

    • 说明:
  1. - 隐藏状态到隐藏状态(Hidden-hidden)权重 =

dynamic_lstmp - 图31 ,维度为 [P, 4*hidden_size] ,P是投影大小

  1. - 投影(Projection)权重 =

dynamic_lstmp - 图32 ,维度为 [D, P]

  • bias_attr (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr

    • 说明:
  1. -
  2. - use_peepholes = False
  3. -
  4. - Biases = {

dynamic_lstmp - 图33 }

  1. - 维度为 [1, 4*hidden_size]
  2. -
  3. - use_peepholes = True
  4. -
  5. - Biases = {

dynamic_lstmp - 图34 }

  1. - 维度为 [1, 7*hidden_size]
  • use_peepholes (bool,可选) - 是否使用 peephole 连接。默认值为True。

  • is_reverse (bool,可选) - 是否计算反向LSTM,默认值为False。

  • gate_activation (str,可选) - 应用于input gate,forget gate, output gate 的激活函数。可选值包括 sigmoid,tanh,relu,identity。默认值为 sigmoid。

  • cell_activation (str,可选) - cell输出的激活函数。可选值包括 sigmoid,tanh,relu,identity。默认值为 tanh。

  • candidate_activation (str,可选) - 候选隐藏状态(candidate hidden state)的激活状态。可选值包括 sigmoid,tanh,relu,identity。默认值为 tanh。

  • proj_activation (str,可选) - 投影输出的激活函数。可选值包括 sigmoid,tanh,relu,identity。默认值为 tanh。

  • dtype (str,可选) - 数据类型。可选值包括 float32,float64。默认值为 float32。

  • name (str,可选) - 具体用法请参见 Name ,一般无需设置,默认值为None。

  • h_0 ( Variable ,可选) 维度为

dynamic_lstmp - 图35 的多维 Tensor。如果为 None,该OP会自动设置为全0的向量。默认值为None。

dynamic_lstmp - 图36 的多维 Tensor。如果为 None,该OP会自动设置为全0的向量; dynamic_lstmp - 图37 如果要设置为None,必须同时为None。默认值为None。

  • cell_clip (float,可选) - 如果该参数不为None,则在单元输出激活之前,单元状态将被此值剪裁。默认值为None。

  • proj_clip (float,可选) - 如果 num_proj > 0 并且 proj_clip 不为None,那么将投影值沿元素方向剪切到[-proj_clip,proj_clip]内。默认值为None。

返回:经过lstmp运算输出的 hidden 的映射和 cell 状态的tuple,包括

  • hidden:LSTM hidden的输出结果,维度为 dynamic_lstmp - 图38 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。
  • cell:LSTM cell的输出结果,维度为 dynamic_lstmp - 图39 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。

返回类型: tuple( Variable , Variable

代码示例

  1. import paddle.fluid as fluid
  2. dict_dim, emb_dim = 128, 64
  3. data = fluid.layers.data(name='sequence', shape=[1],
  4. dtype='int32', lod_level=1)
  5. emb = fluid.layers.embedding(input=data, size=[dict_dim, emb_dim])
  6. hidden_dim, proj_dim = 512, 256
  7. fc_out = fluid.layers.fc(input=emb, size=hidden_dim * 4,
  8. act=None, bias_attr=None)
  9. proj_out, cell = fluid.layers.dynamic_lstmp(input=fc_out,
  10. size=hidden_dim * 4,
  11. proj_size=proj_dim,
  12. use_peepholes=False,
  13. is_reverse=True,
  14. cell_activation="tanh",
  15. proj_activation="tanh")
  16. proj_out.shape # (-1, 256)
  17. cell.shape # (-1, 512)