咿呀呀:通过E-图和反合一学习更好的抽象
摘要:图书馆学习压缩给定的程序语料库,通过将语料库中的常见结构提取为可重用的库函数。现有的图书馆学习工作存在两个限制,使得它无法扩展到更大、更复杂的输入。首先,它探索了太多对压缩没有用的潜在库函数。其次,它对输入的语法变化不够健壮。 我们提出了基于理论的图书馆学习 (LLMT) ,这是一种新的图书馆学习算法,它额外输入一个给定问题域的等式理论。 LLMT 使用等式图和等式饱和来紧凑地表示等于理论的程序空间,并使用一种新颖的等式图反合一技术,在语料库中更直接、更高效地找到共同的模式。 我们在一个名为BABBLE的工具中实现了LLMT。我们的评估结果显示,BABBLE比现有技术实现更好的压缩效果,而且速度快几个数量级。我们还提供了定性评估,显示BABBLE在以前无法通过图书馆学习实现的输入上学习了可重用的函数。
作者:David Cao, Rose Kunkel, Chandrakana Nandi, Max Willsey, Zachary Tatlock, Nadia Polikarpova
论文ID:2212.04596
分类:Programming Languages
分类简称:cs.PL
提交时间:2022-12-12