文章地址: https://arxiv.org/pdf/2310.01728v1.pdf 代码地址:暂时未公开 1. 概述自从大模型兴起,已经陆陆续续出现了很多工作利用LLM来建模时序数据。然而,LLMs是基于离散的token训练的,建模连续时间序列数据…
构建通用预测模型的挑战 向时间序列基础大模型(Foundation Models)转变的范式最初是由自然语言处理(NLP)领域引发的,该领域成功地在多样化的大规模数据上训练了大型语言模型(LLMs),这些模型能够处理各种下游任务,甚至支持多语言。使LLMs能够处理多种语言的一个重大创新是字节对编码(Byte Pair Encoding, BPE),...
必示科技致力于以人工智能赋能IT运维领域,打造领先的智能运维(AIOps)引擎。提高企业IT系统可用性和运维效率,助力企业数字化转型。 « 上一篇 ICLR/NeurIPS论文分享:任务通用的时序基础模型 下一篇 » WWW2024|频率视角重新审视VAE在无监督时间序列异常检测中的应用 ...
时间序列后门攻击目标:被攻击模型在面对干净输入的时候提供正常的预测结果,但是如果输入中包含了触发器(trigger),那么被攻击模型就会输出攻击者预先定义的结果。这个攻击者自定义的结果被称为目标模式(target pattern)。时间序列预测的后门攻击特性:实时性。在对 t 时刻进行攻击的时候,触发器形状必须要在 t 时刻...
Chronos: Pretrained Models for Probabilistic Time Series Forecasting machine-learning timeseries time-series transformers artificial-intelligence forecasting pretrained-models time-series-forecasting huggingface huggingface-transformers foundation-models large-language-models llm Updated Mar 6, 2025 Python man...
如下图所示,我们输入简单的“Who are you?”(00:03)时,LLM 在很短时间(00:04)立即给出了回复:“I’m an AI here to help out!” 。目前来说是Realtime API的Beta 版本,对话的token 有一定限制。 通过官网宣传可知,该 API 的音频功能由全新的 GPT-4o 模型提供支持,具体版本为 gpt-4o-realtime-prev...
就像大语言模型(LLM)需要对齐人类的价值观,3D 生成的 AI 模型需要对齐复杂的 3D 工业标准。更实用的方案已经出现:3D 原生 上科大 MARS 实验室获得最佳论文提名的工作之一——CLAY 让行业看到了上述问题的一个可行的解决思路,即 3D 原生。我们知道,最近两年,3D 生成的技术路线大致可以分为两类:2D 升维和...
Time-LLM is a reprogramming framework to repurpose LLMs for general time series forecasting with the backbone language models kept intact. Notably, we show that time series analysis (e.g., forecasting) can be cast as yet another "language task" that can be effectively tackled by an off-the...
技术介绍: 本文提出了一种名为“人格对齐”的创新方法,旨在解决大型语言模型(LLMs)在个性化交互中的局限性。传统模型通常基于普世人类价值观对齐,而本研究强调从个体差异出发,通过心理学测评工具量化用户特性。研究者构建了涵盖32万真实用户的PAPI数据集,包含正面的“大五人格”(开放性、尽责性、外向性、宜人性、神经...
利用现有LLMs或CV大模型,对下游时序分析任务进行微调; 直接利用时序数据训练一个时序大模型,再基于该pre-trained model微调下游任务。 本文介绍的是阿里在NeurIPS'23的一篇工作“One Fits All: Power General Time Series Analysis by Pretrained LM” 作者认为相比NLP,时序领域缺乏大规模数据集,难以支撑大模型训练。因...