在大语言模型时代中,丰富而又空洞的语义资本

摘要:大型语言模型(LLMs)在自然语言处理领域崭露头角,具备生成人类般文字的能力,这使得它们具备了改变性的影响力。然而,尽管它们在内容创作方面具有潜力,但它们也带来了侵蚀我们语义资本(SC)的风险——即我们数字生态系统中的集体知识,因此引发了多样化的社会认识挑战。本文探讨了这些模型的发展、能力和限制,并突出了它们引发的伦理问题。研究的贡献有两方面:首先,我们承认,在跟踪和控制LLMs影响的挑战下,我们有必要重新思考我们与这些AI技术的交互以及构成公众对它们的看法的叙事。本文认为,在实现这一目标之前,需要面对一个潜在的道义转折点,这是在一个越来越多由人工智能驱动的信息世界中超越遵守AI伦理规范或法规的要求,需要理解LLMs可能给我们的集体SC带来的一系列社会认识风险。其次,依据Luciano Floridi对SC风险的分类,将这些风险与LLMs的功能和限制进行映射。通过这种观点,我们旨在保护和丰富我们的SC,同时与人类建立合作环境,使人工智能增强人类智慧而非取代它。

作者:Luca Nannini

论文ID:2306.01773

分类:Computers and Society

分类简称:cs.CY

提交时间:2023-06-06

PDF 下载: 英文版 中文版pdf翻译中