面向主题的黑盒神经排序模型的对抗性攻击

摘要:对抗性攻击下的主题导向的神经排序攻击 分类:计算机科学,信息检索 神经排序模型(NRMs)在信息检索中引起了相当多的关注。遗憾的是,NRMs可能会继承一般神经网络的对抗性漏洞,这可能被黑帽搜索引擎优化专家利用。最近,已经在配对攻击情景中探索了对NRMs的对抗性攻击,为特定查询生成了对目标文档的对抗性扰动。在本文中,我们关注一种更一般的扰动类型,并引入了针对NRMs的主题导向的对抗排序攻击任务,其目标是找到一种无法察觉的扰动,使得一个目标文档在一组具有相同主题的查询中的排名提升。我们为任务定义了静态和动态设置,并专注于基于决策的黑盒攻击。我们提出了一种基于代理排序模型来提高主题导向攻击性能的新框架。攻击问题被形式化为马尔可夫决策过程(MDP),并利用强化学习来解决。具体来说,一个主题导向的奖励函数指导策略找到一个成功的对抗样本,可以在一组查询中尽可能多地提升排名。实验结果表明,所提出的框架可以明显优于现有的攻击策略,并我们得出结论,应用NRMs存在潜在风险。

作者:Yu-An Liu, Ruqing Zhang, Jiafeng Guo, Maarten de Rijke, Wei Chen, Yixing Fan, Xueqi Cheng

论文ID:2304.14867

分类:Information Retrieval

分类简称:cs.IR

提交时间:2023-05-01

PDF 下载: 英文版 中文版pdf翻译中