【#人工智能可自发形成沟通方式#】据英国《卫报》网站5月14日报道,一项研究发现

参考消息 2025-05-16 18:01:50

【#人工智能可自发形成沟通方式#】据英国《卫报》网站5月14日报道,一项研究发现,人工智能可以自发形成类似人类的社会规范。

这项由伦敦大学城市圣乔治和哥本哈根信息技术大学合作进行的研究表明,当像聊天生成预训练转换器(ChatGPT)这样的大语言模型人工智能体在没有外部参与的情况下进行群体交流时,它们能够开始采用与人类社交时一样的语言形式和社会规范。

该研究报告的第一作者、伦敦大学城市圣乔治的博士研究员阿里尔·弗林特·阿舍里说,该研究小组的工作与大多数对人工智能的研究背道而驰,因为它把人工智能视为一个社会实体,而不是孤立个体。

阿舍里说:“迄今为止,大多数研究都是将大型语言模型视为孤立个体,但现实世界的人工智能系统将越来越多地由多个互动智能体构成。”

他说:“我们想要了解:这些模型能否通过形成规范(即社会的基石)来协调自己的行为?答案是肯定的,它们共同完成的事情不能简化为它们单独完成的事情。”

在研究中,属于单个大型语言模型的智能体群从24个到100个不等。在每个实验中,两个大型语言模型的智能体被随机配对,并被要求从一堆选项中选出一个“名字”,可以是一个字母,也可以是一串字符。

当两个智能体选择了相同名字时,它们会得到奖励,但当它们选择不同选项时,它们会受罚,并被展示对方的选项。

尽管这些智能体并不知道它们属于更大的群体,而且它们的记忆仅限于自身最近的互动,但在没有预设解决方案的情况下,整个群体中自发形成了一套共享命名规范,模仿了人类文化中的交流规范。

伦敦大学城市圣乔治复杂性科学教授、该研究论文的资深作者安德烈亚·巴龙凯利将这种行为的传播与人类社会中新词语的创造进行了比较。

他说:“这些智能体不是在仿效某个领导者。它们都在主动尝试协调合作,而且总是成对进行。每一次互动都是一对一的尝试,目的是在标签上达成一致,不存在任何全局视角。”

他说:“这就像‘垃圾邮件’这个词。没有人正式定义它,但经过反复协调,它成了不受欢迎电子邮件的通用标签。”

此外,该研究小组还发现,集体偏见是自然形成的,无法追溯到单个智能体。

在最后的实验中,一小群人工智能体能够引导更大群体采用新的命名规范。

这被认为是临界质量动力学的证据,正如人类社会所展现的那样,当一个坚定的小规模少数群体达到特定规模时,就能触发(整个)群体行为的快速转变。

巴龙凯利说,他认为这项研究“为人工智能安全研究打开了全新视野。它揭示了这种新型智能体的深远影响,它们已开始与我们互动,并将共同塑造我们的未来”。

他还说:“了解它们如何运作是让我们与人工智能共存而不是受制于它的关键。我们正在进入一个人工智能不光会说话的世界——它会协商、会调整,有时还会对共同的行为持不同意见,就像我们一样。”

这篇题为《大型语言模型群体中的新兴社会规范和集体偏见》的同行评议研究论文发表在美国《科学进展》杂志上。 (编译/卢荻)

0 阅读:3
参考消息

参考消息

《参考消息》创刊于1931年,是中国发行量最大的日报。