刚刚,他一个会议被骗了2个亿
简介: 史上最聪明的骗局就在这里。
“人工智能之父”杰弗里·辛顿曾有过末日预言:人工智能可能对人类构成巨大威胁,因为“很难找到办法阻止坏人利用它做坏事”。
不幸的是,这一预测正在成为现实。
一
高端局来了
一名跨国公司白领仅因喝了一杯咖啡,导致公司损失2亿港币。
事情的起因是,他被邀请参加一个公司高管视频会议,总部的财务总监要求他立即向多个账户转账共计2亿元,在其他同事的配合下,他当场就完成了任务。
但事实上,这场会议是一个骗局,他是整个视频会议中唯一“真人”参加的人!
这是香港警方近期披露的一起多人“AI换脸”诈骗案,受骗员工亲眼所见、亲耳所闻的全都是经过“AI换脸变声”的诈骗分子。
这位员工并不是一个粗心大意的傻瓜。
当他最初收到英国总部CFO的邮件,称公司正在策划一项“秘密交易”,要求他将公司资金转移到几个香港本地账户以备将来使用时,他并不相信,以为这是一封钓鱼诈骗邮件。
但当骗子给他打视频电话,并邀请其他几位“真诚友好”的同事协助时,他彻底放松了警惕。
事实上,直到事发五天后,当他与这家英国公司确认时,才发现自己被骗了。
同样可怕的“遭遇”也发生在福州市一家科技公司法定代表人郭先生的身上。
2023年4月20日,一个朋友突然微信视频打电话给我:“老郭,我一个朋友在外地竞拍,需要430万定金,你看看能不能先用一下你们公司的账户,帮忙转一下钱?”
朋友说钱已经转账了,并给我发了银行转账凭证的截图。
由于是视频聊天,郭先生并未核实钱是否到账,直接向对方账户转了430万。
随后郭先生打电话给朋友称“已经办好了”,但对方却惊讶地回应说,根本不是那么回事。
9分钟,430万没了!
也是AI欺诈,骗过了郭先生。
根据公开信息,这种难以防范的骗局一般分为三个步骤:
1、犯罪分子利用AI机器人拨打骚扰电话,获取目标人物的语音素材进行诈骗,然后伪造语音;
2.窃取目标的社交媒体账户并寻找受害者;
3、利用AI换脸技术与受害者进行视频通话,获取受害者信任,并实施诈骗。
经过这三个步骤之后,以往“发语音”或者“打视频电话”的反诈骗手段,在AI诈骗面前基本失效了。
更可怕的是,掌握AI的骗子越来越多!
公开信息显示,2021年以来,多省份发生AI诈骗和不当牟利案件。中国互联网协会2023年5月24日表示,利用“AI换脸”“AI换声”实施诈骗、诽谤等行为屡见不鲜。
按照传统认知,受害者多为无法抵御诱惑、社会经验较少的“傻瓜”以及一些不经常上网的老年人。
只需几张照片、几秒钟的声音,就能复制“真人”AI骗局,让每个人都能逃脱。
比如,就有很多AI冒充大学同学、亲戚、供应商等进行视频借钱的案例。
如果你从不借钱,那么就认为你不会被骗,这是很天真的。
当骗子冒充领导,以汇款、资金周转等紧急理由要求下属立即转账时,很少有人能顶住压力。更有甚者,骗子直接伪造子女或父母车祸住院等借口,利用亲属感情实施诈骗。
据湖北网警巡查执法公布的信息,新型人工智能技术诈骗成功率接近100%,成功率之高、涉案金额之大、诈骗速度之快令人咋舌。
更为可怕的是,信息泄露、隐私不安全的普遍现实,为人工智能欺诈创造了“天然的温床”。
2023年2月15日,一则“几乎无一幸免,45亿条电商或快递信息疑似泄露”的新闻成为热议话题。有网友忍不住吐槽:“要有多强的防范意识,才能认为视频聊天的亲朋好友不是真人?要有多强的隐私意识,才能确保自己的信息不被泄露、不被盗用?”
微博名人@全民防骗》甚至预测:“你还没被骗,不是因为你聪明,也不是因为你没钱,而是因为适合你的‘剧本’还在路上。”
二
全球暴发
2023年4月底,一位名叫珍妮佛·德斯特凡诺的美国母亲突然接到一个电话:“妈妈,救命!”
当詹妮弗发现她的大女儿布里安娜似乎遇到大麻烦时,她感到震惊。
然后威胁就来了:
“如果你报警,你就再也见不到她了!”
挂断电话后,詹妮弗立即索要赎金。
幸好女儿打来电话,骗局才被揭穿。但她还是很惊讶:
“我绝不会听错我自己孩子的哭声,即使距离有一栋楼那么远。”
让詹妮弗没想到的是,日新月异的人工智能技术已经比母亲更了解她的孩子。而骗子支付的费用可能每月不到 5 美元。
2017年,一位名为“ ”的网友利用AI技术发布将色情片演员的脸替换成盖尔·加朵等明星面孔的视频片段,引发轩然大波。
被称为“deep fake”的AI变声变脸技术从此进入公众视野。
一些从事类似诈骗行为的犯罪分子,立即把目光瞄准了这项先进的技术。
2019年3月,一名骗子利用连“细微德国口音”都无法辨别的AI变声技术,冒充英国一家能源公司的老板,骗取公司高管转账22万欧元,这被认为是全球首例人工智能诈骗案。
随后,AI技术普及的欧美等地也迅速成为AI诈骗的温床。
美国联邦调查局年度报告显示,2022年美国人工智能诈骗案同比增长50%至75%,美国网络诈骗损失达103亿美元,创5年来新高,针对老年人的人工智能语音诈骗案受害最为严重。
世界经济论坛研究分析主管布鲁内曼在一项调查中表示,“过去一年,26% 的小公司和 38% 的大公司遭遇过深度造假欺诈”。她甚至预测:
到2026年,超过90%的网络攻击内容将由人工智能合成。
人工智能诈骗的效果越来越现实,但技术门槛和成本却不断降低。
加州大学伯克利分校教授法里德表示,现在只需要十几秒的录音就能实现AI变声,一张照片就能实现换脸,相应的AI使用费仅为每月5美元至数百美元不等。
这基本上意味着普通人进行非法活动是“容易的”。
此外,人工智能还能通过信息收集和大数据分析,智能筛选出“易受骗人群”,比如在实施金融诈骗时,热衷于投资信息的人就会被收集起来,成为潜在目标。
AI甚至可以分析目标的社交网络,进而了解其个性化表达、人际关系、兴趣爱好等生活习惯,定制“诈骗脚本”。
因此法里德大声说道:
“这太可怕了,就像一场完美风暴,具备了灾难的所有因素。”
但尽管风险显而易见,AI语音和视频合成技术仍然在肆虐。
今年春节期间,文胜视频模型Sora诞生,让AI视频制作变得更简单、更真实。一夜之间,“现实不再存在”的感叹响彻微信朋友圈。
当AI签名、AI视频、AI变声变脸等,这些本该创造美好与便利的高端科技,沦为坏人手中的“魔杖”时,无数人和机构的财产、信息和现实安全正日渐“赤裸”。
三
没有真相的时代
清华大学教授沈阳曾呼吁:“现在是大规模、集中讨论人工智能风险的关键时刻。”
事实上,针对人工智能欺诈的警惕和治理计划已经在制定中。
美国安全中心发布的《人工智能与国家安全》明确将人工智能仿冒技术列为威胁国家安全的关键技术,中国也开始通过政策管理、技术限制等方式应对其潜在的安全风险。
但AI诈骗似乎是一只无法消灭的“蟑螂”——打击力度不断升级,案件数量屡创新高。
根本原因在于法律法规的制定和推进速度跟不上人工智能技术迭代和传播的速度,产业界和公众对人工智能的危险性反应迟缓。
如今,AI诈骗早已超出了“诈骗”的范畴,蔓延到了社会的各个角落。
今年1月底,明星泰勒·斯威夫特的大量AI“不雅照片”在社交平台流传,该事件甚至震惊了美国白宫,掀起了人们对人工智能的担忧浪潮。
甚至连白宫也未能幸免。
上周,许多人接到了美国总统拜登的AI电话,要求他们投票给他,而不是特朗普。
这当然是错误的,但很多人还是相信了。一些人因此认为,人工智能骗局可能会影响美国大选。
在中国,假新闻、假图片的情况也十分猖獗。
2023年5月,一篇《科大讯飞重大风险提示》的文章导致科大讯飞股价暴跌,公司最终紧急回应称,股价下跌是生成式AI撰写的一篇假“文章”导致的。
人工智能让人们的生活越来越便利,但同时也让犯罪分子的生活变得更加容易。
2023年4月13日,在索尼世界摄影奖颁奖典礼上,大奖得主冲上舞台,抢过话筒,怒称这是AI造假,他反问道:“如果索尼世界摄影奖的评委都分不清真假照片,其他人能做什么?”
当AI诈骗从专业级走向“大众级”时,我们能做的,除了寄希望于监管,或许是:
对家人打来的所有电话、视频电话等都要保持警惕。并将“不要向任何陌生人汇款”这句话改为:
不要向任何人汇款。
版权声明:部分文章发布时未能联系到原作者,如有版权问题,请联系我们。