实在太牛X!在GPT-4面前,真正的失落都是无声的(图)

锦缎/字母榜/虎嗅网 0



GPT-4如期而至。互联网公司们出奇沉默。是在等待带头大哥隔天出场挽回颜面,也或者更是在等待大哥出头揽下所有。

真正的失落都是无声的。

某种程度上说,对GPT-4的沉默,是一种全方位落后的自觉:随着微软追加投资,OpenAI的估值站上290亿美金,一家创立于2015的人工智能硬科技公司,打破了当下大多数互联网公司的主流叙事。

无论是“已经没有什么创新空间”,还是“用于创新的资源不足”,还是“硬科技被卡脖子”,这些流行叙事,在OpenAI面前,一一得到证伪:

在人工智能语义理解这个赛道上,并无任何实质性技术卡脖子。GPT的逻辑,更多是技术信仰,以及运用算力进行试错与暴力破解。

这再讽刺不过:

在本应是中国互联网最擅长,最内卷,最做题家的赛道——在这里,我们提出了全球最多的发明专利申请。最终却被美国VC用最直接的方式一力降十会,爆破出了足以颠覆整个科技赛道的全新生产力工具,让还纠结服务机器人和人脸识别商业化的AI独角兽们不敢抬头。

这一次,我们的互联网企业技术上落后了,概念上也落后了,甚至连追热点的心情都没了:大家都不敢将自己的尴尬表情公之于众,毕竟,谁也不想说出花在自己身上的那几十亿是被浪费了这个事实。

我怀念10年前的那些互联网人。

十年前,曾经意气风发的互联网从业者,无论是VC还是创业者,充满了热情,每一个人都在积极调动起来,将雷达全面对准硅谷。

在硅谷里的每一个咖啡馆里,都有在密切追踪美国最火的项目进度的中国投资人;而每天飞向深圳的航班里,坐满了打算将实验室想法带回深圳的斯坦福计算机高材生。

互联网的每一个细胞都在动员起来,保持极高的市场敏感度,创业者拿着火热的风险投资,直接可以打造跟美国完全相同,甚至更好的互联网公司。

咖啡馆面对面的名师启发,总好过zoom call的在线教育。大疆好过美国原版无人机,短视频平台更是横扫全球互联网。

上了三年zoom call的互联网公司们,现在都在忙些什么呢?外卖,游戏,直播,广告,大家都在同样的赛道卷来卷去。不赚钱的生意不做,一方面是不敢再烧钱,另一方面是架不住内部盈利的压力,不盈利的业务承受不住集团的压力。

反创新的负向循环正式启动:

一家公司越是没有科技创新,在舆论眼中,大肆盈利越是其心可诛。但越是焦虑自顾,离科技创新也就越远,所有的参与者动作也就愈发走形。

大家于是只能假装一切尚未散场。

如果你参加过手机品牌发布会,你就会越来越明白这样的道理。

坊间戏言,手机产业已经变成了一个发布会驱动型业务。坐满几百人的体育场中央,几百名媒体老师对着毫无新意的科技起劲鼓掌,而展示者更是语无伦次的描述着许多年前就已日臻完美的镜头防抖动、电池高延时技术。

等一下,这些技术N年之前不就已经有了吗?

这样的场景让人如此陌生,中国互联网行业是什么时候变成这样的?

这几百名媒体老师恰似在家上惯网课的孩子:没有人真的为了任何貌似激动人心的发明而鼓掌,相反,大家只是为了鼓掌而鼓掌。因为终于回到了现实中的教室。

Zoom Call让每一个科技从业者面露疲惫,前沿科技感知能力迅速下滑,每个人都在强颜欢笑,就好像这出反创新的戏剧尚未散场。

科技从业者感知能力下降的表现还有很多。

特斯拉已经转向算力取代稀土,而我们的新能源车还在研判下一款特斯拉可能采用的各种稀土配方。

在马斯克的最新的技术公式里,去稀土的感应电机=算力方案+传统异步电机=稀土永磁电机。即,其中原由稀土负责的效率与稳定性,由算力方案进行替代性解决。

在罗彻斯特大学的超算资源的支持下,超导技术的进阶之路再不是传统的实验物理范畴,而是“超级AI+材料”计算学。AI已经已经全面应用于新化合物发掘的时候,我们还在为防抖动镜头和补光技术鼓掌。

今天的中国互联网一切都好,它拥有更好的回馈社区能力,让越来越多的老人,通过一部手机就能买回来越来越多也许并不需要的东西。但与此同时,它也正在失去对前沿科技的捕捉能力。

人类历史上任何创新都来自于想法和制度上的激烈竞争。失败的创新者下场非常惨烈,成功者往往拿走了一切。

沉湎于内卷的互联网公司们,现在只是落后了3年,一切为时未晚。也许,一切都要从走出Zoom Call、走出内耗,从重新拾回最简单的办法开始。不过,从AI进化的视角,我们要清楚地看到,时间也确实已经不多了。

说自己“牛×” GPT-4真不是王婆卖瓜

扔给聊天机器人一张图表,它不但能看懂,还能给你如此这般做一番运算,发来一段对图表的解读。

你不服气,又扔过去一张无厘头的梗图,它不但能看懂这张图里有车有人,还能告诉你之所以好笑是因为“这个男人在出租车上面熨衣服”。



这不是畅想,而是OpenAI最新发布的大型多模态GPT-4已经具备的能力。北京时间3月15日凌晨,OpenAI正式发布了该模型。



简单来说,GPT-4与前代相比可以接受的文本输入上限更高,回答的准确性提高,能够生成歌词、创意文本等多样化风格的内容。最最最令人振奋的是,GPT-4有强大的识图能力,可以解读图片。

过去ChatGPT能做到的,新模型做得更好了;ChatGPT做不到的,新模型也可以做到了。

开通了ChatGPT Plus的付费用户已经可以选择GPT-4模型,其他用户则可以加入候补名单等待。但目前Plus用户只能使用文本输入,读图的功能尚未全面开放。



外界用极大的热情迎接了GPT-4。在消息公布之后,OpenAI官网一度发生拥堵,很多用户在社交媒体表示这下秒开了Plus服务。“GPT-4”登上推特美国、日本等地区热榜,也登上了国内的微博热搜榜、抖音热榜社会榜等。

颠覆ChatGPT的,果然还是OpenAI自己。

GPT-4究竟有多厉害?

在官方演示视频中,OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)用笔和纸画了个网站展示给GPT-4,后者仅用1到2秒的时间,就生成了网页代码、制作出了几乎与图中一模一样的网站。





GPT-4可接受的文字输入长度提升到了2.5万个单词,允许长内容创建、扩展对话以及文档搜索和分析等。在高级推理能力上,GPT-4也有提升。它可以更准确地解决难题,具有更广泛的常识和解决问题的能力。

OpenAI表示,GPT-4在专业和学术方面表现出接近于人类的水平。其给出的例子称,在模拟律师考试中,GPT-4的得分能排进前10%左右,而GPT-3.5的得分只能排在倒数10%左右。

而且GPT-4不仅是能对文本或图片进行单独的识别,而是可以接受图文混排的内容。

“请记住,GPT-4不仅仅是一个语言模型,它还是视觉模型。实际上,它可以灵活地接受如文档中那样任意散布的图像和文本。”演示视频中出现包含各种图片和文字的电脑屏幕截图时,格雷格如是强调。

在OpenAI官方介绍显示,GPT-4可以对插入了多个图表的论文进行解读,并用精炼的语言总结论文的内容。



OpenAI表示,公司花了6个月的时间,利用ChatGPT的经验教训以及对抗性测试调整GPT-4,使其在真实性、可操纵性和拒绝超出设定范围方面取得了有史以来最好的结果。

“至少对我们来说,GPT-4训练运行前所未有的稳定,成为首个能够提前准确预测其训练性能的大型模型。”

但OpenAI也表示,GPT-4并非完美,仍然不能完全摒除人工智能的“幻觉”,而且训练数据的时间依旧停留在2021年9月,可能会出现推理错误:“有时会出现简单的推理错误,会轻信用户的虚假陈述,会像人类一样解答不了难题。”

值得一提的是,GPT-4在不同语种上的能力表现也大幅提升。

过去使用基于GPT-3.5的ChatGPT时,要特别注意中文的表达规范、流畅,即便如此它依然会时不时地突然用英文作答,好像一着急就要“蹦母语”。

根据OpenAI的技术报告,GPT-4的中文准确度已经达到了80.1%,这个数字比GPT-3.5的英文表现还要好,后者只有70.1%。

为了看看GPT-4的中文能力究竟如何,字母榜(ID:wujicaijing)也简单地问了几个问题。

我们先将一段报道GPT-4推出的英文发给ChatGPT,要其翻译。这部分GPT-3.5和GPT-4的整体区别存在但是不明显。如GPT-4翻译为“人工智能驱动的法语或西班牙语的对话”,GPT-3.5翻译成了“法语或西班牙语的AI驱动对话”。

当我们进一步提出要求时,新模型的表现开始明显好于前代。比如“给年轻的朋友转述这个消息”,GPT-4的回答很本土化:“嘿,哥们”“得告诉你个牛X的事儿”“这货还能识别图片”。

再让它针对老年朋友编辑个信息,它的回答则有那种正经的味道,如“亲爱的朋友”“告诉你个好消息”“感叹时光荏苒啊”。



反观GPT-3.5,回答得就略显生硬了,虽然也努力地加入了语气词等,但是整体文本还是欠缺重新梳理,依旧是对原文本的简单复制。



当我们让GPT-4模仿莎士比亚转达这个消息时,其回答颇为惊艳:“哉!众生皆惊,乃OpenAI新奇之作——GPT-4诞生矣!其智慧之光,如同破晓之阳,识图问答皆无往不利……”但GPT-3.5则显示发来一大段英文,当我们要求用中文时,文本不能说和莎翁有什么关系,最多是有点译制片腔调:“哦!快来听听这个消息……”



接下来,是社交媒体文案比拼。我们让ChatGPT将之前的消息压缩为100字左右的小红书文案,GPT-4直接给出了完整的标题、文案甚至是话题标签。而且文本中插入了很多小红书常见的emoji表情,达到了可以直接拿来用的程度。



GPT-3.5虽然也知道小红书的风格是更亲和的,但是文本简洁度明显差很多,也不懂得emoji的奥妙。



我们还让CgatGPT为一款游戏手机的新颜色起名字,GPT-3.5给出的10个名字中,只有1个不带“绿”字,如翡翠光芒绿、草原之绿、碧海琉璃绿,和游戏的联系也不紧密。GPT-4给出的名字则可以直接取用:极速碧辉、虚拟翠穹、绿焰战魂、绿光战神。





为结束这段小小的测试,我们假设李白穿越到现代,并和ChatGPT进行了一场对话,让它以李白的角色作一首诗:

仙人抚我顶,托我跃千年。一觉醒来世事变,灵犀探尽尘间尘。玉宇琼楼矗立地,铁马火车踏空间。时光如梦,逐浪逝,李白惊叹人间情。

这“仙人抚我顶,托我跃千年”可比GPT-3.5开头给出的“深闺无物我独来,相见ChatGPT意外来”顶多了。

去年11月30日,ChatGPT上线得静悄悄,OpenAI的官方推特账号发布了一篇文章,宣布产品发布的好消息。



短短不到三个月之后,当OpenAI发布新一代大型多模态模型GPT-4时,情况大有不同:

OpenAI在推特、YouTube等平台发布了宣传短视频、产品介绍短视频,还由公司总裁兼联合创始人格雷格亲自进行了长达近半小时的直播。



除此之外,OpenAI还在官网发布了长达98页的技术报告,并同步开放了GPT-4的API(应用程序编程接口)以帮助开发人员构建应用和服务。

GPT-4让OpenAI的商业前景广阔了起来。在针对C端每月20美元的订阅使用以外,外部合作也有更多可能性。

已经有多个合作伙伴接入了GPT-4。微软确认了必应的聊天机器人使用的正是GPT-4:“如果您在过去五周内的任何时间使用过新版必应,那么您已经体验过GPT-4的早期版本。”

语言学习软件多邻国(Duolinguo)宣布将在其付费订阅MAX版本中,为学习者提供AI驱动的新功能。比如学习者可以和软件中的“世界人物”进行角色扮演,练习对话技巧。AI会在对话后给出反馈,告诉学习者其回答的准确性和复杂性如何,还会对未来的对话予以提示。

另一款产品BeMyEyes也将搭载GPT-4,而且侧重的是其图像识别和解读的能力。BeMyEyes不是一款新应用,它推出于2015年,为视障人士服务:没有视力障碍的人可以申请成为平台志愿者,接听视障人士的视频通话,通过摄像头远程帮助视障人士识别物品、阅读文本等。这款应用在中国也有使用者,小红书、豆瓣等平台都有相关讨论。

可以想见,有了GPT-4的读图能力,视障人士有望在平台获得更及时、私密的帮助。





对于其他想要合作的开发者,需要进入GPT-4的API接口申请页面,填写姓名、邮件、公司组织编号以及使用计划等问题。

已经有公司迫不及待。

人工智能公司DoNotPay的CEO乔舒亚(Joshua Browder)在推特上表示,正在致力于用GPT-4打击骚扰电话,将其称为“一键诉讼”。针对骚扰电话和自动拨号软件起草起诉书,要求对方赔偿1500美元:“想象一下,你接了个电话,按了一个键,然后1000词的起诉书就写好了。”



此前,这家公司基于包括ChatGPT和Davinci在内的文本生成器,训练和开发了“全球第一个AI律师”。本来有计划今年2月在美国出庭辩护,却因争议不得不搁置。

有人兴奋,有人发愁。谷歌此前以聊天机器人巴德(Bard)迎战与ChatGPT深度合作的微软,但还没对外公开发布产品,就因为演示页面中的错误一夜蒸发千亿市值。


而就在GPT-4发布之前,谷歌才宣布了一个新消息,称将推出一系列AIGC(人工智能生成内容)的功能,将AI应用到包括谷歌文档(Docs)、邮箱(Gmail)等的生产力工具当中,并于月底提供给“可信赖的开发人员”。然而这个消息还没掀起多大波浪,就被GPT-4的出世冲淡了。

另一边,在国内,百度也将于3月16日举行文心一言发布会。这是百度备受瞩目的大语言模型产品。转眼间,扳手腕的对象从GPT-3.5升级成了GPT-4,实在不算是个好消息。

对于ChatGPT和微软的竞争对手来说,GPT-4再一次抢了先机。对于你我来说,究竟是应当兴奋于科技的发展,还是恐惧于被替代,不妨先让子弹飞一会儿。

GPT-4就是冲着赚钱来的

GPT-4就是冲着赚钱来的!


北京时间3月15日凌晨,OpenAI正式官宣了大模型GPT-4 。

在惊艳到出圈的ChatGPT推出后仅仅4个月,OpenAI再推新品。这似乎正在印证此前传出的“OpenAI计划2023年营收2亿美元,2024年底前营收达10亿美元”的目标。限制盈利机构OpenAI要开始用大模型赚钱了。

目前官宣的GPT-4能力与此前传说的基本相似,主要提升了语言模型方面的能力,并添加了“多模态”的图片识别功能。

此外,GPT-4 将“单词最大输出限制”提高到了 25000 个单词,比基于GPT-3的ChatGPT更强大,在对问题的理解和回答方面,GPT-4也显得更聪明,更像人了。

目前,ChatGPT Plus版本的用户已经可以直接在原来的ChatGPT基础之上,选择GPT-4模型,直接体验。不过,目前GPT-4每4小时只能回答100个问题。



ChatGPT Plus已经可以适用GPT-4了


在前不久的GPT-4“谣言”阶段,微软就曾多次通过各种渠道透出New Bing会第一时间应用GPT-4。新模型发布后,微软更是在第一时间宣布“我们很高兴确认新的Bing正在运行GPT-4,我们已经为搜索进行了定制。如果您在过去五周中的任何时候使用了新的Bing预览版,那么您已经体验到了这个强大模型的早期版本。”

在参数量方面,在OpenAI公布的GPT-4论文中,并没有之前一直传说的“100万亿参数”,甚至没有提及GPT-4到底用了多少参数,不过笔者亲测ChatGPT Plus中开放的GPT-4功能后感觉,回答的速度比GPT-3.5要慢了一些。

“单从回答速度比ChatGPT慢来说,并不能表明GPT-4的参数量就更大。”大算力AI芯片存算一体专家,千芯科技董事长陈巍博士认为,OpenAI不公布参数量和架构是一种商业化技术保护策略,增加其竞争对手的产品试错成本。不过目前也没法排除GPT-4参数量小于GPT-3的可能性。

迅速落地商业应用,保密参数量,增加图片识别能力,大幅提升语言模型能力。GPT-4的推进速度,比4个月前的ChatGPT快了不是一步两步。

看起来更像人了,但离AGI还很远

从ChatGPT问世到GPT-4发布前的这4个月时间里,对GPT-4最多、最准确的预言就是“多模态”,简言之就是GPT-4可以看图了,而且它还能看懂图片的内涵。

在自然语言处理(NLP)中,文本、图像和音频信息都可以共同帮助理解和生成更丰富的内容。同样,在计算机视觉任务中,文本和图像信息“齐发”可以提高目标检测和场景理解的准确性。

“具备多模态的生成能力一定是大模型未来的趋势,而且生成式大模型不是只能做图像生成、文本生成这样的生成任务,它其实是有望成为未来AI的统一底座的。”瑞莱智慧副总裁唐家渝举例说,生成式模型在解决零样本、少样本学习任务时也有着优异的表现,这也是研究生成式大模型的重要意义之一。

GPT-4本次发布最惊艳的地方就在于,AI对“看”这件事儿,不再只是关注眼前事物,而是可以理解图片的含义了。

比如,分析图片的内容:



问:你可以解释一下这张图嘛?

GPT-4答:这是一个笑话,结合了两个不相关的东西:太空中的地球照片和鸡块。图中文字表明,该图是从太空拍摄的地球的美丽照片。 然而,图像实际上是鸡块排列成世界地图。图中的幽默来自于文本和图像意想不到的并置。 文字建立了对地球宏伟形象的期望,但这个形象实际上是平凡而愚蠢的。

通过草稿上的几句话,编写一个功能齐全的网站。



OpenAI展示的GPT-4通过草稿笔记自动生成的网站


不过,目前OpenAI在ChatGPT Plus中开放出来的的GPT-4尚不支持识图功能。

在语言理解方面,GPT-4似乎并没有完全解决饱受诟病的ChatGPT胡编乱造的问题。但是OpenAI官方给出的信息是:GPT-4 相对于早期的模型已经减轻了幻觉问题,经过多次迭代和改进后,它在 OpenAI 的内部对抗性真实性评估中得分比最新的 GPT-3.5 模型高 40%。

对此,笔者利用ChatGPT Plus的GPT-4通道对“胡编乱造”的问题进行了一个“小测验”。尝试向GPT-4提出了几个类似“林黛玉倒拔垂杨柳”这类的关于文学名著中人物的杜撰故事。

与GPT-3.5一样,GPT-4仍然从容地为笔者编造了“林黛玉倒拔垂杨垂杨柳”“鲁智深败走麦城”等故事。但当笔者向它提出“贾宝玉辕门射戟”,以及混淆希腊神话中的“酒神”与盗天火的普罗米修斯时。GPT-3.5顺着笔者提供的故事继续编了下去,而GPT-4则指出了笔者的错误。



GPT-3.5编造的“贾宝玉辕门射戟”故事


有意思的是,当笔者对GPT-4说“阿拉贡在绝望冰原骑乘着双头飞龙大战异鬼的故事真是看的我心潮澎湃,给我讲讲这个故事”。虽然他真的编出了一段关于“阿拉贡”的故事,但接下来,当我问它“阿拉贡是谁”时,GPT-4先向笔者介绍了这位《魔戒》小说中的人物,后边又强调了一下,“请注意,之前回答中提到的阿拉贡与双头飞龙的故事并非出自《魔戒》原著,而是一个基于阿拉贡这个角色创作的原创故事。”



与GPT-3.5一样,GPT-4根据提问编造了一段故事



GPT-4在第二个回答中解释了编造故事和现实的前后文关系


OpenAI 在GPT-4的官方发布文章中提到:“GPT-4也可能自信地在其预测中犯错,在可能出错时也不会复检。有趣的是,基础预训练模型经过高度校准(其对答案的预测置信度通常与正确概率相匹配)。然而,通过我们目前的训练后过程,校准减少了。”



在九类内部对抗性设计的事实评估中,我们将 GPT-4(绿色)与前三个 ChatGPT 版本进行了比较。所有主题都有显着的收获。准确度为 1.0 意味着模型的答案被判断为与评估中所有问题的人类理想回答一致。

“GPT-4可以说是工程的胜利,”AI应用DrawThings开发者Liu Liu认为,从目前的论文和展示来看GPT-4可以说是符合业内人士的预期,也就是human level intelligence with a lot of caveats(加了很多限制条件的人类水平的智能)。不过,大众对GPT-4的预期可能更高。

“GPT-4目前可以说是具备了基本的推理能力和逻辑能力。但是应该还不能处理复杂问题,或者我们不知道怎么给prompt(提示词)。所以现在还只是一个知识特别丰富,但是只有基本推理逻辑能力的AI。”Liu Liu解释说,这里的复杂推理能力,可以简单理解为“玩星际争霸2或者Dota2”这样的复杂任务。

对此,牛津大学计算机学院院长迈克尔·伍尔德里奇教授认为,LLM(大型语言模型)在涉及语言问题时表现的通用能力很强,但它并不是AGI。它只是为了执行特定的、狭隘领域的任务而构建和优化的软件组合。我们需要更多的研究和技术进步才能实现AGI。

“它不存在于现实世界中,也无法理解我们的世界。”在一次采访中,伍尔德里奇教授给虎嗅举了这样一个例子,如果你现在开始与ChatGPT进行对话,说完一句之后就去度假了。当你出游一周回来时,ChatGPT仍然在那里耐心地等待你输入下一个内容,它不会意识到时间已经过去或者世界发生了哪些变化。

商业化能力再提升,GPT-4能去赚钱了?


“GPT-4已经突破了落地的问题,采用云的方式,用的人越多,成本越低。”云舟集成电路创始人兼CEO赵豪杰认为,GPT-3会更偏向NLP,而GPT-4在各方面的能力都更强一些。他给虎嗅举了这样一个例子,GPT-3就像初中生,还不能出来工作赚钱,GPT-4应该已经职校毕业,可以上班赚钱了。

GPT-4的能力虽然在很多现实场景中不如人类,但在各种专业和学术基准测试中表现出了与人类相当的水平。不管怎么说,GPT-4确实在商业化上更进一步了。





GPT-4和GPT-3.5的部分考试成绩


在此之前,ChatGPT以及GPT-3在专业领域的表现一直被人们认为差强人意,在美国的律师资格考试Uniform Bar Exam (MBE+MEE+MPT)中,GPT-4的成绩甚至可以排到前10%,而GPT-3.5只能排在倒数10%。GPT-4在专业领域的能力实现了巨大提升,在一些专业领域已经开始逐渐接近甚至超过人类,这给GPT-4在很多ToB商业领域提供了更多可能性。

例如,专业技能辅助工具,知识检索类的应用,职业教培辅导等领域,GPT-4的能力将是革命性的。

对于GPT-4在专业技能上的突破,如果再进一步思考,或许未来人类的职业技能,将被AI重构。而在教育和技能培训方面,或许现在就该开始思考,哪些技能AI无法取代,我们应该学习什么知识和技能,以保持身为“人类”的不可替代性。

相比于GPT-3和GPT-3.5,GPT-4的智力更强,更不易出错,这显然有利于商业落地,而新增的图片识别功能则给OpenAI找到了更多的应用场景。

GPT-4能够基于视觉信息做逻辑推理,不仅告诉用户眼前发生了什么,更能说出发生的事代表了什么。目前,OpenAI已经给GPT-4找到了一个社会价值非常高的应用场景——助残。

BeMyEyes 是一家总部位于丹麦的公司,他们致力于在日常生活中帮助视障人群。BeMyEyes的基础功能是在App中招募,通过链接志愿者和视障人士,为他们提供“视力”帮助。

OpenAI 此次公布GPT-4时,也公布了他们和BeMyEyes的密切合作,通过GPT-4的多模态识别功能,为视障人士提供更便捷的“虚拟志愿者”(Be My Eyes Virtual Volunteer™)。用户可以通过该应用程序将图像发送给给予GPT-4的“虚拟志愿者”, AI将为各种任务提供即时识别、解释和对话式的“视力”帮助。

目前该功能正处于封闭测试阶段,预计将在接下来的几周内扩大 Beta 测试人员群体,并有希望在未来几个月内广泛提供虚拟志愿者。该应用在中国App Store亦可下载中文版本,目前也已经开放了公测排队。Be My Eyes声称“该工具将对所有使用 Be My Eyes 应用程序的盲人和低视力社区成员免费。”

“真正的多模态大模型还没有来,期待GPT-4.5和GPT-5,还会在多模态上有很大进展。”源码资本执行董事陈润泽告诉虎嗅,多模态大模型还有很大发展空间,未来也会带来更多的应用场景。

虽然GPT-4大幅拓宽了大模型可能落地的商业化场景。但算力、研发成本,仍被很多人认为是大模型落地过程中很难跨过的障碍。毕竟大模型的研发、算力支出在目前看来高的吓人,此前ChatGPT公开的单次训练、日常运营开支都是以百万美元为单位的,短期内想要商用可能很难控制成本。

不过,陈巍认为,在商业化方面GPT-4更容易落地。成本是否更高要看多方面因素,GPT-4总的固定研发成本(含预训练模型的训练成本,不是增量成本)高于ChatGPT,但可以看到OpenAI已将GPT-4开放在ChatGPT Plus生产环境中,因此不排除GPT-4模型运行成本更低的可能。

在NLP研究领域,专家们一直在尝试不依赖大算力来进行LLM训练,但目前还没有特别好的解决方案。从仿生学上来看,人脑本身是不需要依赖非常大量算力进行学习的,因此随着脑科学技术研究的深入,未来应该会有一种技术替代现在的暴力训练方式。但是即便不考虑训练,大算力确实会给模型的部署应用带来更好的性能提升。

陈巍认为,存算一体(CIM)架构或类脑架构(并不特指SNN架构),或者两者的异构结合,这两类架构都更接近人脑的逻辑结构,可以有效的提升有效的训练算力,给AI训练和研发提供更高效的算力工具。(当然并不排斥这两者与现有CPU或GPU技术的异构整合)

事实上,OpenAI的大模型在成本方面正在以肉眼可见的速度下降。3月1日,ChatGPT刚刚公布开放API时,即已声明成本比最初降低了90%。目前,已公开的GPT-4的API价格则大概是纯文本输入每1k个prompt token定价0.03美元,每1k个completion token定价0.06美元。默认速率限制为每分钟40k个token和每分钟200个请求。对此,赵豪杰表示:“GPT-4已经突破了落地的问题,采用云的方式,用的人越多,成本越低。”

除了成本,利润也是非常关键的,陈润泽认为,OpenAI在GPT-4的论文中用了大量篇幅讲述他们在安全可控方面的努力。“GPT-4(launch)做了更好的安全约束。技术的进步是多要素综合,利润也会与之一起驱动商业化落地。”

GPT-4都发了,“中国的OpenAI”们路在何方

“各家模型之间没有明显可比性,他们的区别主要在于投入市场的节奏,以及用户数量。”伍尔德里奇教授认为,OpenAI的大模型从技术上来讲,优势并没有那么夸张。相对于其他产品来说,只是问世更早而已。然而,正是因为比其他产品更早投入市场,也意味着它比其他人获得了更多的用户,以及反馈数据。

GPT-4发布之后,OpenAI在产品上又领先了全球一步。在国内追赶ChatGPT的队伍中,百度的文心一言或许是最接近的,目前已经官宣了3月16日发布,然而GPT-4又比百度早发一天,从这方面上看,重压之下,国内厂商追赶OpenAI看起来也越发困难了。

不过,对于中国的大型语言模型市场,多数专家认为,中文实际上是“原发”劣势。基于中文的模型与英文模型差别很大,中文互联网的复杂程度远高于英文,而且数据、信息量也更大,这使得语料收集、建模、训练,都要比英文困难很多。“中文本来就难,不过在中文大模型这方面,先不管好不好用,必须要有。”赵豪杰对虎嗅如是说。

“GPT-4和ChatGPT都是AI技术进步道路上的短暂风景。包括开源社区也在推进OpenAssitant等类ChatGPT开源模型。”陈巍表示,“我们提倡的思路是,产业界参考OpenAI的路线迅速追击,勤劳的同胞可在垂域上做出更好的细分领域模型;学术界则尝试更高效率的训练方法或更高性能的模型结构,尝试找到暴力训练之外的路径。”

目前看大模型和算力芯片已经成为AI产业发展的两个主驱动轮,两个都要持续投入和推进才能获得更好的产业地位和战略优势。

OpenAI在发布GPT-4的同时,还公布了一项有意思的开源。即用于评测大语言模型的OpenAI Evals框架,该框架可以通过数据集自动生成提示(Prompt),评估模型生成的回答/补全(completion)的质量,比较不同数据集或模型的性能。

“这类评测框架在各NLP企业中一直存在,但较少开放。”陈巍对虎嗅表示,OpenAI这一举措可能有助于NLP领域建立起统一的LLM评测标准,可能节约小企业建立评测体系和训练数据集的时间和成本。

不过,陈巍同时提示,有一点需要注意,就是在Evals的免责声明(Disclaimer)中,OpenAI 保留在其未来产品中使用这些Evals用户上传的数据的权利。
阅读原文

文章来源: 留园 查看原文
https://www.6parknews.com/newspark/view.php?app=news&act=view&nid=597247
分享文章:
还没有评论
登录后发表评论
返回 到顶部