超高创新来了!基于TVFEMD-并行GRU-Informer的轴承剩余寿命预测+SHAP分析,效果超好!

张开发
2026/4/17 16:02:45 15 分钟阅读

分享文章

超高创新来了!基于TVFEMD-并行GRU-Informer的轴承剩余寿命预测+SHAP分析,效果超好!
一、研究背景本项目提出了一种TVFEMD 退化趋势去噪 GRU-Informer 双分支混合模型的轴承 RUL 预测方法。并与6种近年来非常优秀的模型进行对比对比代码都已经写好了。6种模型包括gru_informerinformergruconv_lstmtransformerpatch_tstmamba二、整体框架本项目的方法流程分为四个阶段原始振动信号 │ ▼ 特征提取提取 33 维时频域特征 │ ▼ TVFEMD 去噪对特征退化趋势曲线进行分解按能量占比筛选 IMF去除噪声 │ ▼ 滑动窗口构建时序样本 (window_size10) │ ▼ 模型预测GRU-Informer 双分支融合 → 输出 RUL三、数据集使用IEEE PHM 2012 轴承全寿命退化数据集。工况条件1下 7 个轴承Bearing1_1 ~ Bearing1_7采样频率 25.6 kHz每次采集 0.1 秒2560 个数据点每 10 秒采集一次每个轴承从健康状态运行到失效采样数从 800 余次到 2800 余次不等四、特征提取与 TVFEMD 去噪4.1 33 维特征提取对每个振动采样2560 个点提取 33 维特征时域特征18 个均值、方差、峰度、偏度、均方根、峰值因子、波形因子、脉冲因子、裕度因子、香农熵等频域特征15 个Hilbert 包络特征、频谱重心、频谱扩展、频谱熵、主频、四个频段能量占比等这样每个轴承就得到了 33 条特征随时间变化的退化趋势曲线。4.2 TVFEMD 退化趋势去噪原始特征退化曲线中存在较多波动并非所有变化都反映真实退化。我们采用TVFEMD时变滤波经验模态分解对每条趋势曲线进行去噪分解将退化曲线分解为多个 IMF本征模态函数分量从高频到低频排列能量占比筛选计算每个 IMF 的能量占全部 IMF 总能量的比例保留能量占比 ≥ 3% 的分量去噪重构将保留的 IMF 分量求和得到去噪后的退化趋势相比于传统的基于相关系数的 IMF 筛选方法能量占比筛选更具物理意义——高频噪声分量天然能量较低能够被有效滤除。这里以Bearing1_1为例展示一下Tvfemd对指标的的降噪效果。剩下轴承就不再一一展示代码一件运行即可对所有轴承进行特征提取与降噪。4.3 滑动窗口将去噪后的 33 维特征按 window_size10、stride1 的滑动窗口切分得到形如(n_windows, 10, 33)的时序样本。每个样本包含连续 10 个采样时刻的 33 维特征保留了完整的时序结构。RUL 标签归一化到 [0, 1]1.0 表示轴承生命初期0.0 表示失效时刻。五、模型架构5.1 GRU-Informer 双分支混合模型本项目的核心模型GRU-Informer采用双分支结构输入 [batch, 10, 33] ┌──────────────────────┬──────────────────────┐ │ Informer 分支 │ GRU 分支 │ │ │ │ │ 转置为变量级视角 │ 直接输入时序数据 │ │ [B, 33, 10] │ [B, 10, 33] │ │ ↓ │ ↓ │ │ 变量嵌入 位置编码 │ 双向 GRU (2层) │ │ ↓ │ ↓ │ │ ProbSparse 注意力 ×2 │ 取最后隐状态 │ │ (捕获特征间依赖) │ (捕获时序退化趋势) │ │ ↓ │ ↓ │ │ 投影 → 64 维 │ 投影 → 64 维 │ └──────────┬───────────┴──────────┬───────────┘ │ 拼接 128 维 │ │ ↓ │ │ 注意力权重 (softmax) │ │ 加权融合 → 64 维 │ │ ↓ │ │ MLP: 64→32→16→1 │ ▼ │ RUL 预测值 [batch, 1]核心设计思想Informer 分支将输入转置为变量级视角通过 ProbSparse 自注意力机制建模 33 个特征之间的相互依赖关系。ProbSparse 注意力仅对最活跃的 query 计算完整注意力降低了计算复杂度。GRU 分支双向 GRU 直接建模窗口内 10 个时间步的退化趋势。注意力融合两个分支的输出拼接后通过一个学习的 softmax 注意力权重动态决定每个分支的贡献度实现自适应融合。5.2 对比模型为验证 GRU-Informer 的有效性项目还实现了 6 种对比模型模型说明GRU-Informer双分支混合模型本文方法GRU双向 GRU 基线ConvLSTM1D 卷积 双向 LSTMTransformer标准 Transformer 编码器Informer独立 InformerProbSparse 注意力PatchTST补丁化时间序列 TransformerICLR 2023Mamba选择性状态空间模型Gu Dao, 2024所有模型统一输入[batch, 10, 33]输出[batch, 1]在同一框架下公平对比。六、实验设置项目支持灵活的实验配置自定义训练/测试集自由指定哪些轴承做训练、哪些做测试留一法交叉验证每次留出 1 个轴承做测试其余 6 个训练共 7 轮实验评估指标MSE均方误差、RMSE均方根误差、MAE平均绝对误差R2决定系数越接近 1 越好MAPE平均绝对百分比误差SCORE轴承寿命预测评价指标七、实验结果采用交叉验证的方式依次交替进行测试验证模型的鲁棒性和泛化能力。例如采用轴承1,2,4,5,6,7训练那么就采用轴承3进行测试。以此类推。轴承1_3-1_7模型预测结果如下基于TVFEMD-并行GRU-Informer的的寿命预测结果如下Bearing1-3预测结果可以看到基于TVFEMD-并行GRU-Informer模型在Bearing1_3轴承的测试上竟然达到了98%的R2拟合率并且RMSE直接达到了0.03左右要知道很多顶级SCI期刊的效果也就是RMSE也就是0.5左右。这证明了TVFEMD降噪这条路的可行性这里贴一张来自于一篇文献(Adaptive Res-LSTM Attention-based Remaining Useful Lifetime Prognosis of Rolling Bearings)的结果(这里仅做对比并无拉踩的意思)Bearing1-4预测结果Bearing1-5预测结果Bearing1-6预测结果Bearing1-7预测结果多模型进行比较将并行GRU-Informer网络与informer、gru、conv_lstm、transformer、patch_tst、mamba进行比较结果如下Bearing1-3多模型预测对比结果Bearing1-4多模型预测对比结果Bearing1-5多模型预测对比结果对比试验非常充分剩下两个轴承6和轴承7就不再一一展示了。这里附上一张对轴承3-7所有测试结果的一个平均值总之你可以看到本期推出的这个项目已经做好了所有的对比实验在 PHM 2012 数据集上GRU-Informer 模型取得了非常高的预测精度优于纯 GRU、Transformer、Informer、PatchTST、Mamba 等对比模型。八、SHAP 可解释性分析项目还集成了 SHAPSHapley Additive exPlanations分析模块可以直观展示哪些特征对 RUL 预测贡献最大为理解模型决策提供依据。九、总结本项目提出了一种结合信号处理与深度学习的轴承 RUL 预测方法TVFEMD 去噪基于能量占比筛选 IMF 分量有效去除特征退化曲线中的噪声波动保留真实退化趋势GRU-Informer 混合模型Informer 分支捕获特征间依赖GRU 分支捕获时序退化趋势通过注意力加权自适应融合完整实验框架支持 7 种模型对比、留一法交叉验证、自定义训练/测试划分、SHAP 可解释性分析在 PHM 2012 数据集上GRU-Informer 模型取得了非常高的预测精度优于纯 GRU、Transformer、Informer、PatchTST、Mamba 等对比模型。十、代码获取https://mbd.pub/o/bread/YZWcl5pqaQ点击下发阅读原文也可直达链接。

更多文章