联邦提示和思维链推理提升语言模型解答能力
摘要:如何通过基于云的大规模语言模型(LLMs)来提高分布式用户在常见问题中的答案准确性是我们的研究课题。我们的研究关注的是用户提出的类似查询,涉及相同的数学推理步骤和问题解决程序的典型情况。由于LLMs零样本提示与独立问题的准确性令人不满意,我们提出使用自洽性(SC)和思维链(Chain-of-Thought, CoT)技术来改进分布式的同义问题。具体而言,我们首先从众包数据库中检索同义问题,并创建联合问题池。我们将这些具有相同或不同参数的联合同义问题称为SP-questions或DP-questions。我们将我们的方法称为Fed-SP-SC和Fed-DP-CoT,它们可以为所有用户查询生成更准确的答案,而无需复杂的模型调整。通过广泛的实验,我们证明了我们提出的方法可以通过充分利用问题的同义性和答案的一致性来显著提高问题的准确性。
作者:Xiangyang Liu, Tianqi Pang, Chenyou Fan
论文ID:2304.13911
分类:Artificial Intelligence
分类简称:cs.AI
提交时间:2023-07-03