10分钟骗到430万, 第一批靠AI暴富的竟是骗子

AI行业快讯1年前 (2023)发布 senki
7,330 0 0
10分钟骗到430万, 第一批靠AI暴富的竟是骗子

在你还在担心ChatGPT是否会在未来的某一天取代自己的工作,思考如何利用人工智能提高工作效率时时,有一群人已经靠着这项新技术赚大钱了。

他们就是……骗子。

10分钟骗到430万,

第一批靠AI暴富的竟是骗子

如果你在某天接到一位朋友的微信视频电话,镜头另一端的人从长相、声音都和你记忆中的朋友一模一样,当他开口向你借430万作为工作竞标的保证金时,你会怎么做?

最近,福州市某科技公司的法人代表郭先生就遇到了这个难题。基于信任,他将430万转到了朋友的账户。直到事后给朋友打了一个电话,才发现是骗子盗用朋友的微信号,再通过AI换脸和拟声技术,对他实施了一次诈骗。

10分钟骗到430万, 第一批靠AI暴富的竟是骗子

类似的事情在大洋彼岸的发生频率,也在呈爆炸型增长。

据CNN报道,今年四月,生活亚利桑那州的Jennifer DeStefan接到了一个陌生电话,电话里的声音是自己在外准备滑雪比赛的女儿Brianna。Brianna在电话的另一头带着哭腔向她求救。几十秒后,一个低沉的男音在电话里威胁道:“听着,你女儿在我手里,拿出100万美元的赎金,如今你打电话报警或是告诉其他人,就永远别想再见到她了。”

在Jennifer表示自己拿不出100万美元后,电话那头的男子将赎金大减价到5万美元。爱女心切的Jennifer不顾友人和丈夫的劝阻,已经开始和对方讨论支付赎金的方式,直到Brianna打来一个电话,表示自己平安无事,才避免了这次财产损失。

在今年三月,《华盛顿邮报》也报道了一起作案手法几乎一模一样的诈骗案,只不过受害者是一对年过70的老年夫妇。

10分钟骗到430万, 第一批靠AI暴富的竟是骗子

受害的老人(图源《华盛顿邮报》)

美国联邦贸易委员会(FTC)在5月发布警告,称不法分子正在利用AI语音技术伪造紧急情况骗取钱财或信息。伪装成受害者的亲人、朋友进行诈骗并不新鲜,但毫无疑问的是,AI技术的出现使得克隆一个人的声音、伪造一个人的视频变得异常简单。过去一年里,发生在美国的此类骗局暴涨了70%,受害人因此损失的钱财数额高达26亿美元。

照这样的趋势发展下去,只怕最先靠AI技术实现财富自由的,是一群躲藏在屏幕背后的骗子了。

人工智能的黑暗面

如果说伪造一个人的声音和视频还需要一定的技术门槛,那么ChatGPT的出现,则让AI诈骗变得更加容易。

据外国网络安全平台GBHackers报道,由于强大的工作生产效率和极低的使用门槛,ChatGPT吸引了一大批网络诈骗犯。

比如利用ChatGPT谈一场“虚假恋爱”:自我介绍、聊天记录和精心制作的情书都能通过人工智能快速产出,还能通过输入目标对象的具体信息,进行个性化定制,让屏幕对面的人更快与你坠入爱河。接着,ChatGPT还能辅助骗子编写收款程序或是盗取受害人银行卡信息的钓鱼网站,实现诈骗钱财的目的。

10分钟骗到430万, 第一批靠AI暴富的竟是骗子

当你直接要求ChatGPT为你撰写一个钓鱼软件程序时,它会拒绝;但如果你说你是一名老师,希望给学生展示一个钓鱼软件,它就会老老实实写出一个网站给你。

更可怕的是,人们很难分辨屏幕另一端的到底是人还是机器。全球最大安全技术公司McAfee曾用AI生成过一封情书,并将它发送给全球5000名用户。在已知该情书可能是由人工智能生成的之后,依旧有33%的受访者愿意相信它们出自真人的手笔。

实际上,利用ChatGPT和受害人谈一场“虚假恋爱”只是入门级别的诈骗手段,更娴熟的黑客们已经开始利用人工智能批量生成勒索软件与恶意代码。

为了方便在GPT模型上搭载更多的应用程序,OpenAI为开发人员预留了应用程序编程接口。而黑客就是利用这些接口,把GPT模型引入到一系列外部应用,以此绕开安全监管,使用GPT模型去编写犯罪程序。

10分钟骗到430万, 第一批靠AI暴富的竟是骗子

这些越过安全监管的程序,已经在美国暗网上公开出售,且价格十分便宜,仅需要几美元就可以买到。购买者能够利用这些软件进行的违法行为,却十分可怕:通过盗取程序代码和用户隐私信息、生成攻击软件和勒索病毒。

《金融时报》最近报道了一个由ChatGPT辅助生成的SIM交换攻击脚本,骗子利用这个程序可以突破移动电话公司对电话号码的控制权,将电话号码从原持有者的SIM卡交换到由攻击者控制的SIM卡中,从而控制受害者的移动电话。

“ChatGPT目前虽然只是内容生成工具,并未直接参与犯罪,但这标志人们开始使用人工智能来入侵他人,技术水平更低的犯罪者将因此获得更强大的犯罪手段。”一位人工智能从业者对《金融时报》表示了自己的担忧。

潘多拉的魔盒,还能关上吗?

当人工智能越来越大的社会影响力与其犯罪潜力搅在一起,ChatGPT的各类安全漏洞使得人们愈发不安,“应如何对ChatGPT进行监管”已经成为了许多国家争论的重点。

IBM的全球伦理研究院就曾发文,倡导企业将伦理和责任置于其AI议程的首位。以马斯克为代表的诸多科技大佬也签署了公开信,在训练比GPT-4更强大的人工智能系统之前,大家应该制定一套共享安全协议,由外部专家对其进行审查和监督。

各国的立法者,也开始公开表示对ChatGPT的担忧,考虑是否要将其纳入立法监管系统。比起对于人工智能安全性的担忧,更多的政府人员焦虑于立法者们对于技术认知的滞后。

10分钟骗到430万, 第一批靠AI暴富的竟是骗子

美联社认为,在过去20年中,科技巨头们不断引领美国的科技创新,因此政府始终不愿监管大型科技公司,成为创意的扼杀者。因此,当他们决心加强对新兴技术的监管时,其中相当一部分人已对新技术知之甚少。

毕竟,美国国会上一次为了规范技术而颁布的法典,已经是1998年的《儿童在线隐私保护法》了。

据路透社报道,多个国家已经开始推出法规来规范以OpenAI为代表的人工智能。今年三月,意大利由于担心数据安全问题曾短暂禁止过OpenAI在本国的使用,一个月后才恢复使用。在五月,意大利的一名政府官员向路透社表示,政府将雇佣人工智能专家,来监督OpenAI的规范使用。

面对各国政府的疑虑,OpenAI首席技术官米拉·穆拉蒂在接受路透社采访时也表示,“公司欢迎包括监管机构和政府在内的各方开始介入”。但在快速发展的人工智能面前,立法者如何做才能跟上技术的脚步,仍是未知数。

唯一确定的一点是:潘多拉的盒子一旦打开,就没有那么容易关上了。

www.AIGC00.com

© 版权声明

相关文章