[source]

TimeDistributed

  1. keras.layers.TimeDistributed(layer)

这个封装器将一个层应用于输入的每个时间片。

输入至少为 3D,且第一个维度应该是时间所表示的维度。

考虑 32 个样本的一个 batch,
其中每个样本是 10 个 16 维向量的序列。
那么这个 batch 的输入尺寸为 (32, 10, 16)
input_shape 不包含样本数量的维度,为 (10, 16)

你可以使用 TimeDistributed 来将 Dense 层独立地应用到
这 10 个时间步的每一个:

  1. # 作为模型第一层
  2. model = Sequential()
  3. model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
  4. # 现在 model.output_shape == (None, 10, 8)

输出的尺寸为 (32, 10, 8)

在后续的层中,将不再需要 input_shape

  1. model.add(TimeDistributed(Dense(32)))
  2. # 现在 model.output_shape == (None, 10, 32)

输出的尺寸为 (32, 10, 32)

TimeDistributed 可以应用于任意层,不仅仅是 Dense
例如运用于 Conv2D 层:

  1. model = Sequential()
  2. model.add(TimeDistributed(Conv2D(64, (3, 3)),
  3. input_shape=(10, 299, 299, 3)))

参数

  • layer: 一个网络层实例。

[source]

Bidirectional

  1. keras.layers.Bidirectional(layer, merge_mode='concat', weights=None)

RNN 的双向封装器,对序列进行前向和后向计算。

参数

  • layer: Recurrent 实例。
  • merge_mode: 前向和后向 RNN 的输出的结合模式。
    为 {‘sum’, ‘mul’, ‘concat’, ‘ave’, None} 其中之一。
    如果是 None,输出不会被结合,而是作为一个列表被返回。

异常

  • ValueError: 如果参数 merge_mode 非法。

  1. model = Sequential()
  2. model.add(Bidirectional(LSTM(10, return_sequences=True),
  3. input_shape=(5, 10)))
  4. model.add(Bidirectional(LSTM(10)))
  5. model.add(Dense(5))
  6. model.add(Activation('softmax'))
  7. model.compile(loss='categorical_crossentropy', optimizer='rmsprop')