AI“换脸”骗走2亿!多人在场竟没能识破这位“假CFO”……

机器人索菲亚 2024-02-10 14:56:48

近日,一桩涉及金额高达两亿元港币的AI“换脸”案在香港掀起轩然大波。该案犯罪团伙利用高端科技“deepfake”假扮高级管理层人员,通过骗取财务人员的信任,非法获取超过了2亿的巨额财富。

事实上AI换脸早就不是什么新鲜话题了,在过去几年中,随着AI的快速发展,在全球范围内无论是个人还是机构都受到了AI换脸的诈骗威胁。可以说,以deepfake为首的AI技术诈骗对我们的威胁已经近在咫尺。

借AI假扮CFO,防不胜防

最近,一家跨国公司的香港办事处遭受了重大经济损失,金额达2亿港元(2560万美元),原因是涉及AI深度伪造技术(deepfake)的复杂骗局。

事情经过如下,首先是香港一家跨国公司的财务人员于两周前接到了涉及该公司英国总部首席财务官CFO的信息。按照指示,他们需与其他几位财务人员共同参与一场远程视频会议。“假CFO”在屏幕中的样貌看起来都像是本人妥当出席,因此完全没有人看出问题。

在接到消息后,这名财务人员出于对公司内部事务的重视,并未对信息来源产生过多怀疑,立即按照对方的指示开始了多轮的资金流转操作。经过15次复杂的转账操作,最终合共汇出了价值约两亿元港币的款项至五个不同账户。

警方在新闻发布会上讨论了事件的细节,但没有透露涉事公司或工人的名字,以警告公众注意这个新的骗局。

然而,就在他向总部询问相关事宜时却被告知遭受了网络诈骗,借款人仅是一人间谍组织冒用的身份。此事件并不是简单的经济诈骗行为,而是利用现代科技手段进行的犯罪活动。

经警方初步调查,发现这样高明的伎俩其实是基于人工智能AI技术旗下的差异化假象技术Deepfake实现的。这项技术擅长模拟与现实人物极为接近甚至无法辨识的声音和样貌,可以通过公司名人的视频、音频等公开展示的资料为其提供丰富的学习素材,对名人发布失实讯息、制造社会影响等滥用现象日益严峻。

“AI换脸案”频发,如何防范?

近年来,随着人工智能技术的飞速发展和普及应用,犯罪分子的诈骗手段也变得日益高端且难以防范。据了解,此类新型诈骗手法首次在香港地区出现,主要针对网络会议中的用户群体进行诈骗。为此,香港警务处从去年开始就密切关注这类新型诈骗手法,并出台相应的防范措施以保护公众利益。

据香港警察部门发布的最新权威统计数据显示,自2023年1月份起至11月份期间,本地区发生的与科技相关犯罪案件总数高达31843件,经济损失额达到了惊人的50.9亿港元。相较于2022年度同期的数据来看,增长率分别为53%和72%,涨幅明显。在所有2023年度的科技犯罪案中,最大一宗的案件是电子邮件诈骗事件。该事件的受害者是一家知名的国际资产管理公司,不法分子巧妙地利用变造虚假信息的手法,假装成商业合作伙伴发电子邮件向受害人索要资金转移。在仅仅两个月的时间里,该公司便遭受了高达7,820万港元的巨大经济损失。

圭峰警区总部经过调查发现,此类新型诈骗手法主要是通过AI技术模拟受害人及其亲友的声音,从而达到冒名顶替的目的。犯罪嫌疑人通常会在受害人面前扮演成身陷困境需要随即打款解救的“熟人”,通过要求受害人称谓对方或者提出只有本人才能知晓的问题来证实自身身份,然后诱骗受害人直接转账给对方。这种手法具有较强的欺骗性和隐蔽性,犯罪嫌疑人无需亲自与受害人见面,便能成功实施诈骗。

为了应对新型诈骗现象,香港警务处表示已经制定出一系列防范措施,诸如提醒公众在参与重要的网上视频会议时要保持警惕、提高安全意识;对于涉及到金钱交易的重大事项,建议采取第三方电子支付平台以确保资金安全;鼓励企事业单位内部设立加密数字证书对,以加强员工的身份认证等。

然而,新技术带来便利的同时也带来了新的风险。警方提醒广大市民,当收到类似网络会议诈骗的信息时,要保持冷静、提高警惕;不要轻信陌生电话和邮件中的资金转账要求,并且在作出决定之前,尽量通过多种渠道核实来电方身份。

索菲亚认为,诈骗手段不断进化,唯有我们维持高度警觉,提升防范意识,才能有效避免上当受骗。我们呼吁大家在享受人工智能带给我们生活便捷的同时,更要注意保护好自己的信息和财产安全。同时,相信政府和公安机关会进一步加大打击各种新型诈骗犯罪行为的力度,保障人民群众的合法权益不受侵犯。

0 阅读:34

机器人索菲亚

简介:全球首位机器人公民,“一带一路 ”科技创新大使