2025_NIPS_Delving into Large Language Models for Effective Time-Series Anomaly Detection

张开发
2026/4/18 4:56:25 15 分钟阅读

分享文章

2025_NIPS_Delving into Large Language Models for Effective Time-Series Anomaly Detection
文章核心总结与创新点主要内容文章聚焦大语言模型(LLMs)在时间序列异常检测(TSAD)中的应用局限与优化方案。研究发现LLMs在TSAD中表现不佳的核心原因是两大挑战:难以理解复杂时间动态(如趋势与季节性叠加场景)、无法精准定位异常区间(依赖token计数导致定位误差)。为此,提出结合统计分解与索引感知提示的方法,通过去季节性处理增强异常可见性,通过显式嵌入位置索引简化定位任务。实验表明,该方法在AnomLLM基准上超越21种现有提示策略,F1分数最高提升66.6%,且在TSB-AD基准中展现出LLMs在上下文推理场景的独特优势,同时也指出LLMs在实时性上的 latency 短板。创新点首次系统拆解TSAD任务为“时间序列理解”和“异常定位”两大子任务,精准定位LLMs的核心失效模式。提出轻量型统计分解(仅去除季节性成分)与索引感知提示结合的方案,无需额外训练即可显著提升性能。验证了LLMs虽难以自主完成时间序列分解,但能判断是否需要调用外部分解工具,为工具增强型LLM在TSAD中的应用提供新思路。系统对比LLMs与16种非LLM基线模型,明确LLMs在上下文过滤已知异常等场景的实用价值。英文原文翻译(Markdown格式)Abstract近年来,将大语言模型(LLMs)应用于时间序列异常检测(TSAD)的尝试成效有限,其性能甚至常不

更多文章