时政·财经·军事 | 生活·家庭·娱乐 | 体坛·历史·科技 | 摄影·旅游·文化 | 移民·教育·就业 | 数码·健康·奇闻 | 社区·评论·问卷
留园网首页 · 新闻速递首页 · 【繁體閱讀】 【网友评论:4 条】 【 热评新闻排行 】 【 热门新闻排行 】 【 即刻热度新闻排行 】 【 72小时神评妙论 】   

你在网上关注爱恋的美女 可能都是AI生成的(组图)

新闻来源: X博士 于2023-02-28 4:34:57  提示:新闻观点不代表本网立场

最近,有人宣称,要在苏州的金鸡湖上开游艇趴,报名费3000块,每名参加者都会配备“随身女仆一名”。 

 举办者还附上了部分女仆的照片,看着很顶,但也很奇怪,因为有几位“女仆”的手指扭曲得不合常理。 

 后来事儿闹大了,警方介入,才发现这些女仆照片,居然全都是用AI生成的。 而诸如此类利用AI以假乱真的例子,在过去的一年里可谓屡见不鲜,一再刷新着我们对“真实”这两个字的认知。 



你所爱恋的,都是幻象 今年2月,海外多家媒体发文,称付费色情平台OnlyFans可能会在不远的未来,被AI创造的色图所冲垮。 媒体说这话的原因,是因为在推特平台上,有一个名叫“heartereum的”用户上传了数张由AI所生成的美女图片。 

 乍看上去,图里的小姐姐们与真人别无二致。 只有仔细观察,你才能发现她们身上的一处处“不协调”,然后才意识到这些辣妹,其实都只是精致的“人类模仿品”。 

 虽然人是假的,但色却是真的,就像下面这哥们所说的那样: 

 不过OnlyFans的从业者倒是不担心会被AI模特抢走工作,平台知名艳星Laura Lux表示,她赚钱的点不仅是裸露,还在于与粉丝的亲密互动,这一点,AI是无法胜任的。 在几乎同一时间节点,国内的网络上也出现了一套由AI生成的小姐姐Cosplay图。因其过于逼真,而被B站的审核直接分类进了“仿妆Cos区”。 

·Ai生成的cosplay照,角色是《明日方舟》里的缄默德克萨斯,创造者:勘云工造 这事儿充满一种“齐马蓝式”的科幻寓言感: 人类用PS修图,努力将自己的面容P到完美,而AI却努力去模仿真人脸上的复杂与瑕疵,最后二者实现了某种动态平衡。 

·男生也可以,创造者:海辛Hyacinth 创造这套图的,是国内的博主“勘云工造”。在他的微博时间线上,技术的迭代似乎每隔几天就会出现一次。 

 当漂亮的写真可以被人工智能愈发完美地一次次复现时,你可能就无法意识到,小红书上那个名叫“爱旅游的小多”的美女博主,其实只是一个由AI所缔造的存在。 

 德国的ColorDigital,已经开始组建自己的“数字模特营销团队”,用被生成的、身材完美的AI模特,来给各种潮牌做宣传。 

·AI生成的 而要说AI合成图像最近最狠的一次应用,那还得看Youtube博主Kyle Vorbach——这哥们决定在社交媒体上,利用AI伪造出自己一个月的全部生活。 

 最开始,他只是在Instagram上生成了一张自己从未拍过的自拍照。 

·AI合成的 然后,Instagram上的照片变成了小哥穿上了万圣节的服装;变成了他前往了纽约街头,见到了自己的好友——当然,这一切都是假的。 然而,它们却成功骗过了小哥的朋友们。他们以为他真在纽约,有人甚至都准备打扫屋子迎接他了。 

·AI合成的 之后,小哥开始让AI去完成它更多的幻想:他成了成功人士,搬到了纽约,和自己的爱犬住进了漂亮的公寓,在街头偶遇名人…… 

·AI合成的 在千万次的训练下,AI创造出了一条完全平行的时空线,在那些真的可怕的合成照片里,小哥甚至开始觉得,机器所合成的他,似乎就是真正的他。 诸如此类的案例,正变得越来越多,而许多本不该被击穿的“真实底线”,也开始遇到了数字虚拟的全面刺破——有人开始用AI生成的作品沽名钓誉,甚至开始搞数字诈骗。 



你所看见的,都是虚假 从去年10月开始,Instagram上火了一个叫Jos Avery的摄影师。 

 这个Jos,以其精湛的人像摄影,在短时间内征服了3万多名粉丝。 并且,面对摄影新人的请教,Jos还贴心地指导他们:“我这张照片,是用尼康D810拍的,用的是24-70毫米的镜头。” 然而在一段时间后,Jos本人实在忍不住,向Ars Technica的记者坦言:“其实我根本就不是什么摄影师,这些人像都是我用AI生成出来的。” 

 这不禁让人想起国内最近有个知名的画师,因被曝出用AI绘画而塌房,让许多模仿他作画的萌新失去了继续画下去的动力,也让许多网民开始了一场赛博猎巫——逼画师们自证在绘画中没用过人工智能辅助。 

 与之类似,当人类的容貌,可以被机器在短时间内创造出成百上千张,就会有像Informa Systems 这样的企业,用生成的脸孔创造假的员工,让公司看上去有一个人数众多的专业团队。 

 同一时刻,Facebook的母公司在去年底表示,在它们2022年的取缔活动中,有三分之二的违禁账户,用的头像是AI生成的。 

 这并不让人感到意外,因为在2022年的一篇论文里,研究者发现有3成到5成的美国人,根本就无法在真实脸孔和用DeepFake所生成的虚拟脸孔间做区分。 所以在TikTok上,由AI合成的明星整活儿类视频遍地都是,难辨真假,比如下面的这个基努里维斯: 

 对于骗子来说,DeepFake实在是一件的趁手的工具。 去年8月,有个诈骗团队就利用DeepFake,伪造出一张数字货币公司高管的脸。骗子将这张假脸套在自己的面部,然后通过在线聊天软件Zoom,去和那些项目团队的成员开会,让他们以为自己正在和大公司的负责人对接。” 

 被“偷脸”的这位高管表示,这群骗子的技术很厉害:“他们唯一没模仿出来的,就是我在疫情期间胖出来的那15磅。” 不止面孔,像Midjourney这样的图像生成AI,甚至会影响你对这个世界的认知。 譬如去年9月26日,东京时间凌晨4点39分,有一名家住东京的推特用户,发了三张静冈县遭遇水灾后的惨状。 

 该贴被迅速转发,许多网友又是震惊不已又是要筹措捐款。 结果在推文发出11小时后,原作者道歉,称静冈发水灾是真的,但灾情图片却是他用AI做出来的。他也知道撒谎不好,但就是舍不得海量的推特转发和点赞。 无独有偶,在今年2月初的土耳其叙利亚大地震后,也有人在网上用一张“地震现场的救援图”来号召爱心人士们捐款,结果立刻就被眼尖的网友扒出来,说这图上的人有六根手指,应该是用Midjourney做出来的。 

 而当被AI生成的图像,配合上同样被AI生成的音频与文字时,那你所理解的一切真实,就将会迎来一场彻底的崩塌。 



你所相信的,都在崩塌 在以假乱真这个层面,AI合成的音频丝毫不逊色于图像。 上个月, ElevenLabs发布了自家的语音合成平台,原本是帮助电影和游戏配音,结果很快就被网友们拿来合成“比尔·盖茨称新冠疫苗会造成艾滋病”,以及“艾玛·沃特森大声朗读《我的奋斗》”。 而早在去年12月,中国台湾的刑事局就已经破获了一起AI语音诈骗案。 

 骗子先以5万新台币的价格从科技公司购入诈骗电话的AI模组,然后在8个月的时间里群发上百万次,赚了2700万新台币的赃款。 而当AI合成视频加上了AI合成音频,你便能在社交媒体上刷到埃隆·马斯克在镜头前忏悔自己吸毒过量,知名电台主持人乔·罗根(Joe Rogan)教观众如何去亚马逊购买他推荐的壮阳药。 

 在算法的加持与混淆下,那个“将名人的话语奉为真理”的时代正在离我们远去。 这还没完。 前些日子,ChatGPT正好在情人节前后大火,加拿大反欺诈中心便趁此机会警告世人:未来操纵感情杀猪盘的,很可能就是这些聪明的聊天AI。 

 而安全公司McaFee的研究则表明,10个人里有7个都会把AI生成的情书,当成是真人所撰写的甜言蜜语。 与此同时,美国知名科幻杂志《克拉克世界》被迫暂停投稿渠道,只因他们在短短一个月内,接到了500多篇由AI所生成的小说稿件。 

·"目前已关闭稿件提交,原因不难猜出”by 克拉克世界 欧洲执法组织去年9月预言:“到 2026 年,全网有多达 90% 的在线内容可能是合成生成的。媒体将大多由人工智能生成与操纵。” 当然,为了防止以后互联网上“无内容可信”,各国也想出了相应的对策——利用一套专门用来打假的AI。 像韩国就声称将在2月的月底,用AI来辅助侦破电信诈骗案,而创造了ChatGPT的OpenAI,最近刚研究出了一个专门鉴别ChatGPT的AI。 

 这就让以后的互联网,变得越来越像一个AI神仙打架的地方了,变成了一个巨型的类生成对抗网络,而所谓的真假,不过是用来证明哪方AI更强的一个标准。 

 况且,根据去年12月安永发布的一篇文章,许多用来训练AI的数据,本身也都是虚构出来的。 像现在一些顶尖的汽车公司,就用随机生成出来的模拟路况来训练自动驾驶,而药企则用千万个用随机数据做出的病历,来进行非物质层面的临床实验。 相对于参考真实的案例去开发,AI生成确实节省了大量的成本,也能将许多罕见的极端情况考虑在内。 

·模拟驾驶环境 而我们也因此终于,走进了那片被《黑客帝国》称为“真实的荒漠”的地方。 在那个地方,真实被AI托管,网络上的种种欺诈,像一个个被精心策划的真相,没有真与假,只有神经网络与复杂的算法。 




			
网编:空问站

鲜花(0)

鸡蛋(0)
4 条
【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]
进入内容页点击屏幕右上分享按钮
新闻速递首页 | 近期热门新闻 | 近期热评新闻 | 72小时神评妙论 | 即刻热度新闻排行
女性频道】【魅力时尚
敬请注意:新闻内容来自网络,供网友多视角阅读参考,观点不代表本网立场!若有违规侵权,请联系我们。
前期相关精彩新闻
新闻速递首页·向留园新闻区投稿·本地新闻·返回前页