简介:【2月更文挑战第28天】ICLR 2024:Time-LLM:基于大语言模型的时间序列预测 在2024年ICLR上,研究者们展示了一种创新的时间序列预测方法——Time-LLM。这种方法的核心在于利用大型语言模型(LLMs)的能力,通过一种称为重新编程(reprogramming)的技术,将LLMs应用于时间序列预测任务。这一框架不仅保持了LLMs原有的...
• 提出了一个新的框架,即TIME-LLM,它包括将输入时间序列重新编程为更自然的文本原型表示,并通过声明性提示(例如领域专家知识和任务说明)来增强输入上下文,以指导LLM推理。该技术指明了多模态基础模型在语言和时间序列方面的卓越表现。 • TIME-LLM在主流预测任务中的表现始终超过最先进的性能,特别是在少样本和零...
与通常使用成对的跨模态数据进行微调的视觉语言和其他多模态语言模型相比,TIME-LLM 是直接优化的,只需一小部分时间序列和几个训练周期即可随时使用,与从头开始构建大型领域特定模型或对其进行微调相比,它保持了高效率并施加了更少的资源限制。为了进一步减少内存占用,可以无缝集成各种现成的技术(例如量化)来精简 TIME-LL...
Time-LLM架构简介 Time-LLM,即时间序列大型语言模型,是一种专为时间序列数据设计的深度学习架构。其核心思想在于,将时间序列数据视为一种“语言”,每一个时间点上的数据被视为一个“单词”,整个时间序列则构成一个“句子”。通过借鉴自然语言处理中的成功经验,Time-LLM能够学习时间序列中的长期依赖关系,并生成准确...
Time-LLM,用大语言模型(LLM)来做时间序列预测项目地址:github.com/KimMeen/Time-LLM “Time-LLM 是一个重新编程框架,用于将大型语言模型(LLMs)重新用于通用的时间序列预测,同时保持其骨干语言模型的完整...
顶会ICLR2024论文Time-LLM分享:通过重编程大型语言模型进行时间序列预测 859 -- 7:43 App 构建由大模型辅助的基于多模态数据融合的异常检测、根因诊断和故障报告生成系统 1675 -- 11:19 App 基于LLM的多场景智能运维 131 -- 7:07 App 论文闪电分享|KnowLog:基于知识增强的日志预训练语言模型 289 -- 7:04...
必示科技致力于以人工智能赋能IT运维领域,打造领先的智能运维(AIOps)引擎。提高企业IT系统可用性和运维效率,助力企业数字化转型。 « 上一篇 ICLR/NeurIPS论文分享:任务通用的时序基础模型 下一篇 » WWW2024|频率视角重新审视VAE在无监督时间序列异常检测中的应用 ...
We begin by reprogramming the input time series with text prototypes before feeding it into the frozen LLM to align the two modalities. To augment the LLM's ability to reason with time series data, we propose Prompt-as-Prefix (PaP), which enriches the input context and directs the ...
Saved searches Use saved searches to filter your results more quickly Cancel Create saved search Sign in Sign up Reseting focus {{ message }} weiwei-du / Time-LLM Public forked from KimMeen/Time-LLM Notifications You must be signed in to change notification settings Fork 0 Star ...
接着前两篇介绍大语言模型(LLM)应用于时间序列预测的文章,本文再介绍一篇用LLM来做时间序列预测的文章。前两篇文章的介绍链接如下: 的泼墨佛给克呢:(2023 NIPS)Large Language Models Are Zero-Shot Time S…