此次,聆心智能联合清华大学CoAI实验室共同发布大模型安全评估框架。作为聆心智能的创始人,黄民烈介绍说,他们希望通过对大模型应用边界进行定义,促进大模型生态健康发展,推动人工智能研究和应用向更有用、更可信、更安全迈进。据知,黄民烈团队建立的大模型安全分类体系中设定的不安全对话场景,包括犯罪违法、身体健康...
中新网北京3月27日电 (贾君玉 张素)记者近日采访清华大学计算机科学与技术系长聘副教授黄民烈获悉,历时两年多时间,由他带领的科研团队建立了大模型安全分类体系,并从系统层面和模型层面等打造了大模型安全框架。 近年来,随着技术突破,大模型获得快速发展并在多个场景得到应用。不过,其存在的事实性错误、知识盲区等问题...
中新网北京3月27日电 (贾君玉 张素)记者近日采访清华大学计算机科学与技术系长聘副教授黄民烈获悉,历时两年多时间,由他带领的科研团队建立了大模型安全分类体系,并从系统层面和模型层面等打造了大模型安全框架。 近年来,随着技术突破,大模型获得快速发展并在多个场景得到应用。不过,其存在的事实性错误、知识盲区等问题...
然而,如图 2 (b)所示,在 few-shot 场景下,PT 的表现比 FT 差很多,这可能会阻碍 PT 在各种低资源场景下的应用。 因此,在这篇论文中,来自清华大学的 Yuxian Gu、Xu Han、刘知远、黄民烈四位研究者广泛探索了如何通过 PT 以高效和有效的方式使用 PLM 进行 few-shot 学习。 具体来说,在论文的第二部分,他们...
黄民烈教授介绍道,目前在超级对齐框架下,其研究团队做了精确对齐算法 EXO,确保在理论上有精准的对齐效果。针对大模型攻击,团队做了目标优先级优化(Goal Prioritization),同时研发的模型安全探测器 ShieldLM,可以判断输出内容是否安全。 此外,团队还研发了能够弥补人写 Prompt 与模型更能理解的 Prompt 之间差距的黑盒提示...
迫不及待分享我们与黄民烈老师团队在Prompt Tuning(PT)的最新发现。今年Google Research发现保持大模型参数不变,仅调整Prompt参数就可以取得与全参数调整相当的效果,我们认为这个发现很重要,打开了超大规模模型广泛应用的大门。但是实验表明这种做法收敛慢,特别是在少样本任务上由于数据少效果仍然不佳。为此,我们系统分析了...
来自清华大学的刘知远、黄民烈等研究者提出了一个名为「PPT」的新框架。PPT=Pre-trained Prompt Tuning。 图源:https://www.zhihu.com/pin/1419682869878489088 近年来,微调预训练语言模型(PLM)取得了很大进展。通过微调 PLM 的全部参数,从大规模无标签语料库中获得的多方面知识可以用于处理各种 NLP 任务,并优于从头...
推荐大家试一下清华大学黄民烈老师团队推出的【AI乌托邦】小程序,可以模拟一些著名的人物跟你对话(图1),你甚至可以设定自己的人物角色,比如有同事设定了一个以我的名字命名的角色,并输入了40多字的我的个人简介,于是有了图2这样的对话。不得不说,虽然对话涉及的事实半真半假,但说话的口气还真是有点像我,非常有...
中新网北京3月27日电 (贾君玉 张素)记者近日采访清华大学计算机科学与技术系长聘副教授黄民烈获悉,历时两年多时间,由他带领的科研团队建立了大模型安全分类体系,并从系统层面和模型层面等打造了大模型安全框架。 近年来,随着技术突破,大模型获得快速发展并在多个场景得到应用。不过,其存在的事实性错误、知识盲区等问题...
来自清华大学的刘知远、黄民烈等研究者提出了一个名为「PPT」的新框架。PPT=Pre-trained Prompt Tuning。 图源:https://www.zhihu.com/pin/1419682869878489088 近年来,微调预训练语言模型(PLM)取得了很大进展。通过微调 PLM 的全部参数,从大规模无标签语料库中获得的多方面知识可以用于处理各种 NLP 任务,并优于从头...