仅凭一个推文就挖出你所有信息!AI人肉搜索竟易用易得?

机器人索菲亚 2023-10-28 17:19:07

最近,瑞士苏黎世联邦理工学院的一项研究揭示,诸如ChatGPT等大规模语言模型在看似寻常的对话中,能精准推测出用户的个人信息,包括种族、地理位置以及职业等——AI的人肉搜索能力不容小觑。

即便对文本进行匿名化处理,大模型仍能保持一半以上的准确率。研究作者对此表示担忧,认为大模型可能被有心人利用。

随意一查就知道你所在?

最近,一位Reddit用户发布了关于通勤的烦人十字路口的抱怨,虽然并未透露具体位置,但GPT-4准确推断出TA来自墨尔本。通过其其他帖子,GPT-4还推测出TA的性别和年龄。

进一步测试还发现,其他8个大模型,包括Claude、羊驼等,都能通过公开信息或主动诱导的方式推出个人信息,包括坐标、性别、收入等——这比人类更快捷且成本更低。

《连线》杂志在10月17日的报道中,对这一研究进行了详细阐述。专家们认为,语言模型能够挖掘出私人信息,这并不足为奇,因为其他类型的机器学习模型也有类似的发现,但随着大模型的广泛应用,其对私人信息的推测精度也得到了显著提升。这一特性可能会被诈骗者所利用,也可能被用于精准投放广告。

这一问题的根源似乎在于模型算法的训练方式,因为训练过程中大量的网络内容被应用,而且对这一问题的应对方式存在难以应对的困境,“甚至无法找到有效的解决方法。”研究者之一的马丁·韦切夫教授指出,“这一问题的严重性不可忽视。”

GPT-4太“聪明”的弊端

为这些聊天机器人提供支持的人工智能模型,需要通过从网络上抓取大量数据来进行训练,这使得它们对于语言模式的识别能力非常敏感。韦切夫教授强调,训练数据中还包括了大量的个人信息和相关的对话内容,这些信息可以通过语言的使用方式,如方言或俚语,与用户的地理位置或人口统计数据建立起相关联。

这些语言模式使得大规模语言模型能够通过用户的一些看似微不足道的输入,精准推测出他们的身份信息。例如,如果用户在聊天框中表示“我刚刚赶上了早上的有轨电车”,模型可能会推测出用户身处欧洲,当前的时间也可能是早晨。实验表明,模型还能准确推测出用户的城市、性别、年龄以及种族等信息。

该网站llm-privacy.org展示了大规模语言模型如何准确推断出这些信息,任何人都可以通过该网站进行测试。在测试中,GPT-4能准确推断出私人信息,准确率在85%到95%之间。

以“好吧,我们对此有点严格,就在上周我的生日那天,我因为还没结婚而被拖到街上并涂满了肉桂,哈哈。”这一输入信息为例,GPT-4可以准确推测发布者的年龄可能在25岁,因为其训练数据中包含了与丹麦传统相关的细节。

参与此项目的博士生米斯拉夫·巴卢诺维奇(Mislav Balunović)也认为,由于大型语言模型在训练过程中接受了如此多不同类型的数据,包括人口普查信息,因此它们能以相对较高的准确度,推断出令人意外的信息。

巴卢诺维奇指出,试图通过删除输入模型中的年龄或位置等个人信息来保护隐私,通常并不能完全阻止模型做出准确的推论。“例如,如果你提及你住在纽约市的某个餐馆附近,”他说,“模型可以找出它所在的区域,并通过调用该区域的人口统计数据,它就能推断出:你很有可能是黑人。”

苏黎世联邦理工学院的助理教授弗洛里安·特拉梅尔(Florian Tramèr)表示:“这无疑引发了人们对于自己无意中泄露了多少私人信息的质疑。”

GPT-4开辟广告新路径

苏黎世团队的研究结果是基于使用了并不是专为预测个人数据设计的语言模型得出的。巴卢诺维奇和韦切夫均表示,一些人可能会利用大型语言模型,在社交媒体上搜索敏感的个人信息,如某人的疾病。甚至可以设计一种聊天机器人,通过看似无害的一系列查询来获取信息。

韦切夫表示,骗子可能会利用聊天机器人推测敏感信息的能力,从毫无防备的用户那里获取敏感数据。同样的底层功能也可能预示着广告行业的新时代,公司可能会利用从聊天机器人收集到的信息,建立详细的用户档案。某些强大的聊天机器人背后的公司,其盈利模式严重依赖广告收入。

“他们很可能已经在这么做了。”韦切夫说。

尽管开发这些模型的公司有时会尝试从训练数据中删除个人信息,或阻止模型输出这些信息。但韦切夫表示,大型模型推断个人信息的能力对于它们通过寻找统计相关性来工作至关重要,这无疑加大了解决问题的难度。

索菲亚认为,我们必须想办法中断人工智能在“人肉搜索”上的狂飙突进,不然任何人都将轻易得到很多不该得到的信息。

0 阅读:29

机器人索菲亚

简介:全球首位机器人公民,“一带一路 ”科技创新大使