|
使用 LSTM 神经网络进行时间序列预测的过程。下面我会对代码的主要部分进行解释: 定义 LSTM 网络:
0 o2 W+ X7 u3 }! j6 x% {1 }. G( H- lstm_reg 类继承自 nn.Module,它包含了一个 LSTM 层和一个线性层。
- 在 __init__ 方法中,定义了 LSTM 层和线性层的结构,其中 input_size 是输入样本的特征维度,hidden_size 是 LSTM 层的神经元个数,num_layers 是 LSTM 网络的层数。
- forward 方法实现了前向传播过程,将输入数据经过 LSTM 层和线性层得到输出。
0 o8 y, ~$ f( _: S3 J' y/ n
创建预测数据集:
; v0 t* V; A! q4 `$ B! f- create_dataset 函数根据给定的数据集和滑动窗口大小创建预测的输入数据 data_X 和输出数据 data_Y。
( f! u" ^' v- X1 p6 Q7 w
划分和重塑数据集:
" }) Y, ]2 u. N. z0 F& p$ E- split_reshape_dataset 函数将数据集划分为训练集和测试集,并将数据集的形状调整为适应 LSTM 网络的输入。
- 设置一个分割系数,默认为 0.7,即将数据集的前 70% 作为训练集,后 30% 作为测试集。
- look_back 参数是滑动窗口的大小,决定了输入特征的维度。
7 A+ h. H: W1 U: Q: H# B8 w
数据预处理: , [ Y k' v. R1 {; |
- data_preprocessing 函数对数据集进行预处理,包括丢弃空值和将数据归一化。2 z8 t( N. w& z
构建和训练 LSTM 网络:
4 z2 W& L7 F9 C/ N" u- 使用给定的参数创建 net 对象,即 LSTM 网络。
- 定义损失函数 criterion 和优化器 optimizer。
- 使用训练集进行训练,根据损失函数计算损失并通过优化器更新网络权重。! E. ^0 |6 Y) N# M
加载已经训练好的模型:
! G; U5 i; _4 a- C B# @- 使用 torch.load 加载之前保存的模型参数文件。
/ g8 q! j) Z% [
进行预测: ( o1 _; J5 U% Z1 V) t- j& }* w
- 使用测试集数据进行预测,将预测结果经过逆归一化处理得到真实值。
- 使用 Matplotlib 绘制真实值和预测值的曲线图。
! ^# D* P/ j6 y9 [$ U
计算 MSE 损失: 6 i {; s1 c6 f0 A9 s5 C. n
- 将真实值和预测值之间的差平方,再求平均得到 MSE 损失。7 C$ f8 g5 _8 Q! k% s1 J: m3 P, x
这段代码可以根据给定的数据集进行时间序列预测,并计算预测结果的 MSE 损失。
3 m* L- y- a/ l! T6 O- t7 i) V0 i- J2 f6 T1 c) G
8 Y! Y+ ~" y: t- H }1 \+ f
* z# V4 p- F& r! n9 b% ?: l( e$ Z
|