FedLogic:可解释的大型语言模型多领域思维链联合选择
摘要:面向大语言模型(LLMs),利用“思维链(CoT)”推理以引导快速、精确的响应正在迅速引起研究兴趣。其中一个显著的挑战是如何设计或选择最优的提示。提示选择的过程依赖于用户基于从LLMs生成的相应新响应进行的连续调整和组合的多次尝试。此外,仅有少量研究探索了LLMs如何利用从用户交互中学到的数学问题解决能力来解决叙述写作中的问题。为了改进可解释性并探索在多领域CoT提示选择场景中通用性和个性化之间的平衡原则,我们提出了联邦逻辑规则学习方法(FedLogic)。我们在联邦LLMs的背景下引入了多领域CoT提示选择困境的理论形式化和交互模拟。我们将联合概率建模问题建模为一个双层程序,其中CoT提示选择的复杂性可以类比为基于模糊评分的规则选择,而LLMs的功能则充当规则生成器。FedLogic通过变分期望最大化(V-EM)来解决这个问题。此外,我们在这个概率建模框架中加入了两个KL散度约束,以克服管理庞大搜索空间的复杂性,并实现CoT的跨领域个性化。据我们所知,FedLogic是第一个用于LLMs的可解释且合理的联邦多领域CoT提示选择方法。
作者:Pengwei Xing, Songtao Lu, Han Yu
论文ID:2308.15324
分类:Artificial Intelligence
分类简称:cs.AI
提交时间:2023-08-30