为了解决 LLM 最初可能无法生成功能完备的 PDDL 模型这一问题,我们将 LLM 用作 PDDL 与纠正反馈源(如 PDDL 验证器和人类)之间的接口。对于缺乏 PDDL 背景的用户,我们表明 LLM 可以将 PDDL 翻译成自然语言,并有效地将纠正反馈编码回底层领域模型。我们的框架不仅享有外部规划器提供的正确性保证,而且还允许用户在一...
本质上,规划步骤被外包给外部工具,假设特定领域的 PDDL 和合适的规划器可用,这在某些机器人设置中很常见,但在许多其他领域并不常见。 自我反省 自我反思是一个重要的方面,它允许自主代理通过完善过去的行动决策和纠正以前的错误来迭代改进。它在不可避免地会出现试错的现实任务中发挥着至关重要的作用。 ReAct(Yao ...
虽然LLMs在规划(或者说长期推理)方面表现得不尽人意,但它们在描述和翻译文本输入方面,包括以PDDL格式重写规划提示,方面做得很好。直观上,我们可以将PDDL视为一种不同于英语的语言,所以将规划提示以PDDL的形式重写其实就是一项“机器翻译”的任务,这是LLMs擅长的领域。这里我们提供了一个由GPT-4写就,没有进行任何...
直觉上,我们可以将 PDDL 视为与英语不同的语言,因此将规划提示重写为 PDDL 实质上是一个“机器翻译”任务,而 LLMs 在此类任务中表现优异。以下是 GPT-4 无需任何提示工程生成的 PDDL 问题文件示例。我们可以看到,生成的文件看起来具有正确的 PDDL 语法,但使用了一个虚构的谓词(empty),并且遗漏了 b1 在桌子上...
• 符号规划器(Symbolic Planner):基于形式化模型,如PDDL,使用符号推理来找到从初始状态到目标状态的最优路径。 • 神经规划器(Neural Planner):通过强化学习或模仿学习技术训练的深度模型,针对特定领域展现出有效的规划能力。 符号规划器的代表工作:...
更进一步的,作者测试了自然语言提示和 PDDL,发现 vanilla 语言模型在前者上的表现更好。 作者还发现,与之前的说法相反,one-shot 提示并不是对 zero-shot 的严格改进。这在对 LLaMA 系列模型的测试中最为明显。 值得注意的是,基准测试的原始迭代没有考虑...
更进一步的,作者测试了自然语言提示和 PDDL,发现 vanilla 语言模型在前者上的表现更好。 作者还发现,与之前的说法相反,one-shot 提示并不是对 zero-shot 的严格改进。这在对 LLaMA 系列模型的测试中最为明显。 值得注意的是,基准测试的原始迭代没有考虑效率,因为 vanilla LLM 生成某些输出所花费的时间仅取决于该...
由此可见,LLM本质上依旧是接近检索的系统。为此,研究团队进一步测试了自然语言提示与PDDL,发现传统的语言模型在自然语言提示下表现得更佳。与之前观点相悖,一个样本的提示并不一定能明显改善零样本的表现,尤其在针对LLaMA系列模型的检测中,该现象尤为显著。基准测试中并未考虑效率,因为传统LLM生成输出所需时间只与...
此外,LLM+P利用传统规划器的能力,使用规划领域定义语言(PDDL)和问题提示来为LLMs创建特定任务的问题文件[44]。这种整合显著提高了LLMs在处理长期规划任务方面的有效性。另外,SayPlan通过集成经典路径规划器来解决规划视野问题。通过这样做,SayPlan能够将从抽象和自然语言指令派生出的大规模、长期任务计划具体化,使移动...
将PDDL 计划转化回自然语言。 本质上,规划步骤被外包给外部工具,假设特定领域的 PDDL 和合适的规划器可用,这在某些机器人设置中很常见,但在许多其他领域并不常见。 自我反思Self-Reflection 自我反思(Self-reflection)是一个重要的方面,它允许AI Agent 通过完善过去的行动决策和纠正以前的错误来迭代改进。在现实世界的...