|
使用 LSTM 神经网络进行时间序列预测的过程。下面我会对代码的主要部分进行解释: 定义 LSTM 网络: $ F% G: f0 ?8 k0 p I' ]0 @- T6 H
- lstm_reg 类继承自 nn.Module,它包含了一个 LSTM 层和一个线性层。
- 在 __init__ 方法中,定义了 LSTM 层和线性层的结构,其中 input_size 是输入样本的特征维度,hidden_size 是 LSTM 层的神经元个数,num_layers 是 LSTM 网络的层数。
- forward 方法实现了前向传播过程,将输入数据经过 LSTM 层和线性层得到输出。4 t1 w1 N4 b# f( a* g, W
创建预测数据集: + P" L' J) I& F! _$ [
- create_dataset 函数根据给定的数据集和滑动窗口大小创建预测的输入数据 data_X 和输出数据 data_Y。
. _' i6 }7 F" ?* ?* `2 N
划分和重塑数据集:
& V& J4 d+ [' n, Y+ |, S+ D- split_reshape_dataset 函数将数据集划分为训练集和测试集,并将数据集的形状调整为适应 LSTM 网络的输入。
- 设置一个分割系数,默认为 0.7,即将数据集的前 70% 作为训练集,后 30% 作为测试集。
- look_back 参数是滑动窗口的大小,决定了输入特征的维度。
: U3 M3 I2 J* d r. l
数据预处理: $ {5 r/ T, I6 G" e$ d# K, \ K1 G8 K
- data_preprocessing 函数对数据集进行预处理,包括丢弃空值和将数据归一化。0 O2 G: Y- M4 m2 l1 S& |: T
构建和训练 LSTM 网络:
V* L$ R) u' U: [ r- 使用给定的参数创建 net 对象,即 LSTM 网络。
- 定义损失函数 criterion 和优化器 optimizer。
- 使用训练集进行训练,根据损失函数计算损失并通过优化器更新网络权重。7 K. v0 O L- R% d
加载已经训练好的模型: , v. n2 ^4 v; S8 H% l2 _ ^
- 使用 torch.load 加载之前保存的模型参数文件。
; i8 Z2 E5 L: `+ \8 `3 H6 a
进行预测:
" _/ T" `7 `" G) x3 X% F3 E0 }- 使用测试集数据进行预测,将预测结果经过逆归一化处理得到真实值。
- 使用 Matplotlib 绘制真实值和预测值的曲线图。, j" e1 n8 q1 w( M
计算 MSE 损失: : q& Y" v! q) U5 q# X4 {1 F- f
- 将真实值和预测值之间的差平方,再求平均得到 MSE 损失。
; l, o$ \9 t* L8 O7 j
这段代码可以根据给定的数据集进行时间序列预测,并计算预测结果的 MSE 损失。
/ k d5 k: l2 ^$ v: E1 O! r
6 w( O1 f/ ^3 C* q& b1 y9 P
0 }: n H. B0 S8 N: b5 o6 M/ e) o% _% `# Y
|