时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 社区·评论·问卷
留园网首页 · 新闻速递首页 · 【繁體閱讀】 【网友评论:8 条】 【 热评新闻排行 】 【 热门新闻排行 】 【 即刻热度新闻排行 】 【 72小时神评妙论 】   

10分钟骗400万!骗子手里的AI把所有人都耍了(组图)

新闻来源: 金错刀 于2023-05-25 4:08:31  提示:新闻观点不代表本网立场



10分钟,骗走430万。

无所不能的AI,再次刷新了瞒天过海的速度。

最近,“AI诈骗正在全国爆发,诈骗成功率接近100%”登顶了热搜第一,中国警方在线也紧急提醒大家反诈。



这次被AI耍的团团转的,没想到是一位科技公司的老板。

老郭的好友给他打了一通微信视频,说自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。

在这通微信视频里,对方先要了老郭的银行卡号,声称已经打了钱,甚至还发了银行转账截图。

又是视频聊天,又是转账记录,谁都猜不出来对面是个AI假人。



结果,老郭没有核实钱是否到账,迅速把430万打过去了。

直到钱款转账后,老郭给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。

他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。



骗子对于AI技术的运用之快、运用程度之高令人咋舌——AI换脸、AI换声,拦截微信号,几乎无一不出自AI技术之手。

最恐怖的是效率之快,整个过程不过短短十分钟。

谷歌前CEO之前就发出警告,“AI被滥用迟早会威胁人类生存”,但那时不少人觉得是杞人忧天。

“彻底黑化”的AI诈骗,到底是如何一步步瞒天过海的?

AI一黑化,坐地铁也能一丝不挂

这两年,AI换脸已经不是新鲜事。

AI技术一秒整容,baby的脸变成热巴,这样的视频从一开始的惊掉下巴到如今的见怪不怪。



有些直播间发现商机,干脆用AI换脸的杨幂、迪丽热巴在直播间卖货。



小到恶搞名人,自娱自乐。

比如,之前有国外网友用Midjourney生成“教皇穿羽绒服”,图片质量之高完全做到了以假乱真,被浏览了2800多万次,还引起了不小的骚动。



前不久,日本的一位女议员在网上大火。

在大部分人的印象中,议员这个职位总是严肃并且保守的,根据网上的信息,这位女议员是日本内阁的“厚生劳动大臣”。

作为日本内阁中重要的职位之一,这位女议员却过于“赏心悦目”了。



外表和身份所带来的反差感,让这位女议员在推特上积累了超高的人气,只要有她的照片,随便一发都能带来几百万点击量。

还有美国前总统川普被警察逮捕,编写的有鼻子有眼,而且有图有真相。

就冲这酷似视频截图的画质,很多人似乎认为川普真被抓了。



大到一张AI图片,就能让股价暴跌。

就在这周一,美国国防部五角大楼爆炸、浓烟滚滚的造假照片在网上疯传,引起了不小恐慌。

由于当下没有可以交叉比对的新闻报道,很多网友都信以为真。



结果,美股闻讯一度暴跌,这可能是人工智能生成图片影响市场的首例。

美国许多观察家认为,这张疑为AI生成的照片经由多个帐号散布出去,迫使国防部出面澄清五角大楼并未发生爆炸。

最后,美国防部发言人说:“我们可以证实这是假消息,五角大楼并未遭到攻击。”

真是造谣一秒钟,辟谣一整天。



而当AI“以假乱真”的作图技术,遇到ChatGPT“瞬间写作”的能力,会发生什么?

结果是,更放飞自我了。

前不久,估计很多刀哥读者也看到这样一条新闻—— 22岁的加拿大小哥为了在韩国顺利出道,以防弹少年团的朴智旻为模版,整容了12次,花费了上百万。

每日邮报报道,最后不幸丧命。



在这条新闻下面,很多人痛批韩娱的畸形审美、整容就是圈钱,结果被证实是AI炮制的假新闻。

甚至你会发现,有了AI的“加持”,流量就能轻松拿捏。

甘肃平凉市公安局崆峒分局网安大队发现,多达21个网站上同步出现了一条本地“新闻”:《痛心!甘肃一火车撞上修路工人,致9人死亡。》

如此骇人听闻的标题外加大体量的集中报道,这条“新闻”的点击量迅速爆炸。



当地网警立刻介入,调查后发现,犯罪嫌疑人就是利用了AI技术进行的新闻造假。

他先是购买了大量账号,再通过ChatGPT全网抓取社会热点新闻素材,简单修改一番就能避开平台的查重审查,炮制出假新闻。

为的就是在各大平台获取流量变现。

广州一个女孩只是在小红书上,发了张自己坐地铁出门的普通照片,没想到却被人用AI“一键脱衣”,并配上虚构的文字造黄谣。



在时间、地点都对得上的情况下,搭配AI强大的算法,谣言满天飞。

当骗子拥有AI,成功率飙到100%

如果说前期AI的“黑化”还停留在恶搞和造谣,那么直到被骗子盯上时:

突破想象的骗局才刚刚开始。

比如在10分钟骗走430万这个诈骗中,核心涉及了AI换脸以及语音合成这两个技术。

有关AI 换脸软件,多数是AI深度伪造(Deepfake)技术的化身,最初源于一个名为 “deepfakes” 用户。

Deepfake 最初的用法,局限性还较大,只能对已有视频进行后期“换脸”。

比如,把《射雕英雄传》里的朱茵换成杨幂,五年前就实现了。



原理就是

把视频分割成一张张连续图片,将每一张图片中的脸进行替换,最后将全部替换后的图片再合成视频。

然而随着 AI 技术的逐渐发展,最让人担心的事情还是发生了:用 AI 可以实时“换脸”了。

比如,下面这个换脸速度和逼真程度,只有一个字:绝。

甚至成本也越来越低,合成一个动态视频,成本也仅在2元至10元。

有行业内人士爆料,“客户”往往是成百上千购买,牟利空间巨大。

至于面向更精准、更实时的大型直播平台,视频实时换脸的全套模型购买价格在3.5万元,甚至不存在延迟、也不会有bug。

至于像语音合成方面,技术效果也是越来越逼真。

比如,过去骚扰电话只是诈骗,但现在就算诈骗不成,骗子通过骚扰电话录音等来提取你的声音,获取素材后进行声音合成。

这样一来,你的声音样本就被骗子轻松提取。

前段时间,微软发布了新模型VALL·E:只需3秒,就可以复制任何人的声音,甚至连环境背景音都能模仿。



当这两项技术门槛和成本变得越来越低时,骗子就嗅到了钱的味道。

在南京,有人收到了自己大学同学的QQ留言,说目前在医院,表姐住院了真的很着急,急需3800元住院费。

这时候,一般人还不会上当。

直到对方发过来一条视频,不仅背景在医院,而且还打了声招呼,语音语调都非常逼真。



没想到,在他转账之后迅速被拉黑,最后发现视频原来是AI伪造的。

不久之前,西班牙的一家电影制作公司也遭受了AI电话的诈骗,诈骗者伪装成著名演员“卷福”。

大佬主动找上门,这让这家电影公司很兴奋。

但“AI卷福”说,“我对你们很感兴趣,但需要公司先转20万英镑(约170万人民币)的定金,之后再谈具体的合作细节。”



三天前,美国CBS电视台的电视新闻杂志节目60 Minutes,现场展示了黑客是怎样克隆声音来骗过同事,并成功窃取护照信息的。

小到在网购、兼职、刷单的小钱 ,大到冒充客服、投资理财人员等身份,获取银行卡账号密码直接转一大笔账...

当骗子拥有AI,诈骗成功率几乎到了100%。

无所不能之前,先要解决瞒天过海

AI的发展速度让外界始料未及,唱衰和警告的声音也越来越多。

五天前,英国首相苏纳克针对AI安全性发出的一则警告:英国将带头限制AI可能带来的危险。



马斯克更极端,甚至把AI比作未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。

这次AI诈骗全国爆发,更让人觉得AI一旦作恶,就会让人防不胜防。

但这件事,或许并不能完全甩锅给AI本身。

首先,对待新科技,大忽悠们总是比普通人具有更灵敏的嗅觉。

比如,在比特币出现之时,普通人当成谈资和新闻,可很快就有犯罪团伙将其用于洗钱。



洗钱者在交易所购买比特币,通过多次转账和分割,使交易链变得复杂,破坏交易记录的可跟踪性——最后,比特币转换为现金。

再比如,自封为联合国科学技术组织的执行主席的向主席,成功骗过了北大、清华、复旦等一众中国名校。

对外发行30亿比特币,差不多价值近200亿元人民币。



对互联网、区块链、元宇宙、AI,骗子的捞金KPI驱使着他们不断利用技术的黑暗面。

骗子的诈骗手段无所不用其极,开发利用新技术的速度也令人瞠目结舌。

结 语:

快播创始人王欣在法庭上发表的“技术无罪论”,但出狱后的王欣修正了他的观点:“技术是无罪的,但人会犯错”。

不得不承认,AI骗局对大部分普通老百姓来说,简直就是灾难。

过去我们一直说,“杀猪盘”的骗子不敢视频,冒充公检法的骗子不敢视频。

但如今,图片、声音、视频都可以造假。



在第七届世界智能大会上,中国科学院院士管晓宏认为,安全性如果得不到保证,AI 系统的应用将会受到极大的挑战。

OpenAI CEO在美国国会听证会上大声呼吁,世界应该要设立可以规范和监管AI 的独立机构。

乐观的想,AI诈骗门槛越来越低,不就意味着用AI反诈的成本也在降低?

如今,谁更了解AI,谁就决定了AI的“角色”。

不如让技术解决技术,用立法打败魔法。

			
网编:空问站

鲜花(0)

鸡蛋(0)
8 条
【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]
进入内容页点击屏幕右上分享按钮
新闻速递首页 | 近期热门新闻 | 近期热评新闻 | 72小时神评妙论 | 即刻热度新闻排行
经济观察】【谈股论金】【股票投资
敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。
前期相关精彩新闻
新闻速递首页·向留园新闻区投稿·本地新闻·返回前页