记忆沙盒:透明且互动的对话代理内存管理
摘要:对话模型的记忆管理:Memory Sandbox 大型语言模型(LLM)的出现为聊天机器人如chatGPT带来了高性能。这些机器人必须记住正在进行中的对话中的关键信息,以提供与用户上下文相关的回复。然而,这些机器人的记忆有限,很容易被对话中的无关内容分散注意力。尽管有许多策略用于管理对话记忆,但用户目前缺乏查看和控制机器人记忆的功能,导致心智模型不清晰和对话故障。在本文中,我们提出了Memory Sandbox,这是一个交互式系统和设计探针,允许用户管理LLM-powered机器人的对话记忆。通过将记忆视为可以查看、操作、记录、总结和在对话之间共享的数据对象,Memory Sandbox为用户提供了交互和管理机制,以便控制机器人应该如何“看待”对话。
作者:Ziheng Huang, Sebastian Gutierrez, Hemanth Kamana, Stephen MacNeil
论文ID:2308.01542
分类:Human-Computer Interaction
分类简称:cs.HC
提交时间:2023-08-04