Skip to content

Latest commit

 

History

History
174 lines (116 loc) · 7.3 KB

stacked-long-short-term-memory-networks.md

File metadata and controls

174 lines (116 loc) · 7.3 KB

栈式长短期记忆网络

原文: https://machinelearningmastery.com/stacked-long-short-term-memory-networks/

使用 Python 中的示例代码轻松介绍 Stacked LSTM

原始 LSTM 模型由单个隐藏的 LSTM 层和后面的标准前馈输出层组成。

Stacked LSTM 是此模型的扩展,具有多个隐藏的 LSTM 层,其中每个层包含多个存储器单元。

在这篇文章中,您将发现 Stacked LSTM 模型架构。

完成本教程后,您将了解:

  • 深度神经网络架构的好处。
  • Stacked LSTM 循环神经网络架构。
  • 如何使用 Keras 在 Python 中实现栈式 LSTM。

让我们开始吧。

Gentle Introduction to Stacked Long Short-Term Memory Networks

堆叠长短期记忆网络 的照片由 Joost Markerink 拍摄,保留一些权利。

概观

这篇文章分为 3 个部分,它们是:

  1. 为什么要增加深度?
  2. 栈式 LSTM 架构
  3. 在 Keras 中实现栈式 LSTM

为什么要增加深度?

栈式 LSTM 隐藏层使得模型更深入,更准确地将描述作为深度学习技术获得。

神经网络的深度通常归因于该方法在广泛的挑战性预测问题上的成功。

[深度神经网络的成功]通常归因于由于多个层而引入的层次结构。每个层处理我们希望解决的任务的某些部分,并将其传递给下一个。从这个意义上讲,DNN 可以看作是一个处理流水线,其中每个层在将任务传递给下一个任务之前解决了部分任务,直到最后一层提供输出。

可以将其他隐藏层添加到多层感知机神经网络中以使其更深。附加隐藏层被理解为重新组合来自先前层的学习表示并在高抽象级别创建新表示。例如,从线到形状到对象。

足够大的单个隐藏层多层感知机可用于近似大多数功能。增加网络的深度提供了另一种解决方案,需要更少的神经元和更快的训练。最终,添加深度是一种代表性优化。

深度学习是围绕一个假设建立的,即深层次分层模型在表示某些函数时可以指数级更高效,而不是浅层函数。

栈式 LSTM 架构

LSTM 可以利用相同的好处。

鉴于 LSTM 对序列数据进行操作,这意味着层的添加增加了输入观察随时间的抽象级别。实际上,随着时间的推移进行分块观察或在不同时间尺度上表示问题。

...通过将多个重复隐藏状态堆叠在一起来构建深 RNN。该方法可能允许每个级别的隐藏状态在不同的时间尺度上操作

Graves 等人介绍了堆叠的 LSTM 或深 LSTM。在将 LSTM 应用于语音识别方面,打破了具有挑战性的标准问题的基准。

RNN 本身就具有深度,因为它们的隐藏状态是所有先前隐藏状态的函数。启发本文的问题是 RNN 是否也能从太空深度中获益;这就是将多个重复隐藏层堆叠在一起,就像在传统的深层网络中堆叠前馈层一样。

在同样的工作中,他们发现网络的深度比给定层中的存储器单元的数量更重要。

栈式 LSTM 现在是用于挑战序列预测问题的稳定技术。栈式 LSTM 架构可以定义为由多个 LSTM 层组成的 LSTM 模型。上面的 LSTM 层提供序列输出而不是单个值输出到下面的 LSTM 层。具体地说,每个输入时间步长一个输出,而不是所有输入时间步长的一个输出时间步长。

Stacked Long Short-Term Memory Archiecture

堆叠长短期内存架构

在 Keras 中实现栈式 LSTM

我们可以在 Keras Python 深度学习库中轻松创建 Stacked LSTM 模型

每个 LSTM 存储器单元都需要 3D 输入。当 LSTM 处理一个输入时间步长序列时,每个存储器单元将输出整个序列的单个值作为 2D 数组。

我们可以使用具有单个隐藏 LSTM 层的模型来演示以下内容,该 LSTM 层也是输出层。

# Example of one output for whole sequence
from keras.models import Sequential
from keras.layers import LSTM
from numpy import array
# define model where LSTM is also output layer
model = Sequential()
model.add(LSTM(1, input_shape=(3,1)))
model.compile(optimizer='adam', loss='mse')
# input time steps
data = array([0.1, 0.2, 0.3]).reshape((1,3,1))
# make and show prediction
print(model.predict(data))

输入序列有 3 个值。运行该示例将输入序列的单个值输出为 2D 数组。

[[ 0.00031043]]

要栈式 LSTM 层,我们需要更改先前 LSTM 层的配置,以输出 3D 数组作为后续层的输入。

我们可以通过将层上的 return_sequences 参数设置为 True(默认为 False)来完成此操作。这将为每个输入时间步返回一个输出并提供 3D 数组。 以下是与 return_sequences = True 相同的例子。

# Example of one output for each input time step
from keras.models import Sequential
from keras.layers import LSTM
from numpy import array
# define model where LSTM is also output layer
model = Sequential()
model.add(LSTM(1, return_sequences=True, input_shape=(3,1)))
model.compile(optimizer='adam', loss='mse')
# input time steps
data = array([0.1, 0.2, 0.3]).reshape((1,3,1))
# make and show prediction
print(model.predict(data))

运行该示例为输入序列中的每个时间步输出单个值。

[[[-0.02115841]
[-0.05322712]
[-0.08976141]]]

下面是定义两个隐藏层 Stacked LSTM 的示例:

model = Sequential()
model.add(LSTM(..., return_sequences=True, input_shape=(...)))
model.add(LSTM(...))
model.add(Dense(...))

只要先前的 LSTM 层提供 3D 输出作为后续层的输入,我们就可以继续添加隐藏的 LSTM 层。例如,下面是一个有 4 个隐藏层的 Stacked LSTM。

model = Sequential()
model.add(LSTM(..., return_sequences=True, input_shape=(...)))
model.add(LSTM(..., return_sequences=True))
model.add(LSTM(..., return_sequences=True))
model.add(LSTM(...))
model.add(Dense(...))

进一步阅读

如果您要深入了解,本节将提供有关该主题的更多资源。

摘要

在这篇文章中,您发现了 Stacked Long Short-Term Memory 网络架构。

具体来说,你学到了:

  • 深度神经网络架构的好处。
  • Stacked LSTM 循环神经网络架构。
  • 如何使用 Keras 在 Python 中实现栈式 LSTM。

你有任何问题吗? 在下面的评论中提出您的问题,我会尽力回答。