Meta首席AI科学家:超级AI不会很快到来
文章来源: 腾讯科技 于
- 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
据外媒报道,英伟达首席执行官黄仁勋与Meta首席科学家杨立昆(Yann
LeCun)对人工智能的看法存在显著分歧。黄仁勋乐观地预测超级人工智能将在五年内赶超人类,而杨立昆则持更为谨慎的立场,认为超智能不会那么快到来。
在Meta最近为其基础人工智能研究团队举行成立十周年庆祝活动中,杨立昆再次阐述了他的观点。他表示,目前的人工智能系统还远远没有达到可以媲美类人感知能力的水平,可能还需要几十年时间。这种能力将使它们具备常识,不再局限于对大量文本进行创造性总结的范畴。
杨立昆评论黄仁勋的观点时表示:“我了解黄仁勋,这位英伟达首席执行官从人工智能热潮中获益良多。这是一场人工智能战争,而他在提供武器。”
谈及开发通用人工智能(AGI)的技术挑战,杨立昆强调了对图形处理器的需求:“如果要开发AGI,你就必须购买更多的图形处理器。”通用人工智能是一种与人类智能水平相当的人工智能。只要OpenAI等公司的研究人员继续追求AGI,他们就需要更多的英伟达芯片。
杨立昆预测,在达到人类智能水平的人工智能出现之前,我们更可能看到“猫级”或“狗级”的人工智能。他认为,目前行业对语言模型和文本数据的过度关注,可能会阻碍研究人员实现他们几十年来一直追求的先进类人人工智能系统。
杨立昆解释说:“文本是非常糟糕的信息来源,人类可能需要两万年才能阅读完用于训练现代语言模型的文本数量。而即使用相当于两万年的阅读材料来训练一个系统,它们可能仍然无法理解某些基本概念。”
在Meta的研究中,杨立昆和他的团队正在积极探索多模式人工智能系统,这些系统能够处理包括音频、图像和视频在内的各种数据。他们认为,这些数据之间可能存在的数十亿个隐藏相关性,将有助于人工智能系统完成更复杂的任务。
例如,Meta已经开发出了一种软件,可以在人们佩戴其增强现实眼镜Project
Aria时,教他们如何更好地打网球。该眼镜将数字图形融入现实世界。高管们的演示显示,一名戴着增强现实眼镜的人在打网球时能够看到视觉提示,教他们如何正确握住网球拍,并以完美的姿势挥动手臂。为这类数字网球助手提供动力所需的人工智能模型,除了文本和音频之外,还需要融合三维视觉数据,以支持数字助手与人进行交流。
虽然多模式人工智能系统的开发代表了下一个前沿领域,但其成本却非常高昂。随着Meta和谷歌母公司Alphabet等越来越多的公司投身于研究更先进的人工智能模型,英伟达凭借其硬件优势可能会进一步扩大市场份额,特别是在没有其他竞争对手出现的情况下。
目前,英伟达已经成为生成式人工智能热潮的最大受益者之一。其昂贵的图形处理单元(GPU)已经成为训练大语言模型的标准工具。事实上,Meta依靠16000个英伟达A100
GPU来训练其Llama AI软件。
当被问及科技行业是否需要更多的硬件供应商来支持Meta和其他研究人员继续开发这类复杂的人工智能模型时,杨立昆表示:“新模型不需要它,但它会很好。”他补充说,至少在人工智能领域内,GPU技术仍然是黄金标准。不过他也指出,未来的计算机芯片可能会有新的命名和形态。
-->
`,
"script":[{"type":"text/javascript","src":"//widgets.outbrain.com/outbrain.js","async":"async"}]
}
, "gg_rightside": {
"html":`
`,
"script":[{"type":"text/javascript","src":"//widgets.outbrain.com/outbrain.js","async":"async"}]
}
, "gg_duturandom": {
"html":`
`,
"script":[]
}
, "gg_square": {
"html":`
`,
"script":[]
}
, "gg_topbanner": {
"html":`
`,
"script":[]
}
, "gg_middlesquare": {
"html":`
`,
"script":[]
}
, "gg_dutu": {
"html":`
`,
"script":[]
}
, "gg_botline": {
"html":``,
"script":[]
}
, "gg_dututop": {
"html":`
`,
"script":[]
}
, "gg_shipintop": {
"html":`
`,
"script":[]
}
, "gg_inContent": {
"html":`
`,
"script":[]
}
, "gg_shipinrandom": {
"html":``,
"script":[]
}
, "gg_sideSticky": {
"html":`
`,
"script":[]
}
, "gg_bottombanner": {
"html":`
`,
"script":[{"type":"text/javascript","src":"//widgets.outbrain.com/outbrain.js","async":"async"}]
}
, "gg_marquee": {
"html":`
`,
"script":[]
}
}
const adEnv={
"gg_header": {
"html":``,
"script":[{"type":"text/javascript","exec":` var googletag = googletag || {}; googletag.cmd = googletag.cmd || []; var pbjs = pbjs || {}; pbjs.que = pbjs.que || []; `},{"type":"text/javascript","src":"https://adncdnend.azureedge.net/adn-hb/adn.wnx2.js","async":""},{"type":"text/javascript","src":"https://adncdnend.azureedge.net/adn-video/WenxuecityPlayer.js","async":"async"}]
}
}
const wxcEnv = {
"base":{
"exe":[],
"src":[
{"src": "/news/js/recommendednews.js","defer":"true"},
{"src":"/js/wxcFunc.js","defer":"true"}
]
},
"func":{
"exe":[
//展示评论
'function showMoreComments(){let n = 4;for(let i=0;i
2){dom.hide();}}$("#showallcomment").show();$("#showlesscomment").hide();};hideComments();',
],
"src":[
//图片,搜索,QR code
{"src": "/news/js/view.js?v=05132024"},
//计数器
{"src":"//count.wenxuecity.com/service/count/script/do.php?type=news&id=125305569&n=0&out=jsval","defer":"true"},
]
}
}
function wxcCode(){
wxcEnv.base.exe.forEach(x=>{
let tag = buildAdcode(x);
document.head.append(tag);
})
wxcEnv.base.src.forEach(src => {
let tag = buildSrc(src)
document.head.append(tag);
});
wxcEnv.func.exe.forEach(x=>{
let tag = buildAdcode(x);
document.body.append(tag);
})
wxcEnv.func.src.forEach(src => {
let tag = buildSrc(src)
document.body.append(tag);
});
}
function adcode(){
let adkey = Object.keys(ads);
adkey.forEach(x=>{
let code = ads[x].html;
let div = document.getElementById(x);
if(div)div.innerHTML = code;
ads[x].script.forEach(s=>{
if(Object.keys(s).indexOf('src')===-1){
let tag = buildAdcode(s.exec);
document.body.append(tag);
}else{
let tag = buildSrc(s);
document.body.append(tag);
}
})
})
}
function baseCode(){
let baseKeys = Object.keys(adEnv);
baseKeys.forEach(x=>{
adEnv[x].script.forEach(s=>{
if(Object.keys(s).indexOf('src')===-1){
let tag = buildAdcode(s.exec);
document.head.append(tag);
}else{
let tag = buildSrc(s);
document.head.append(tag);
}
})
})
}
function buildAdcode(script){
let tag = document.createElement('script');
tag.innerHTML = script;
return tag;
}
function buildSrc(obj){
let keys = Object.keys(obj);
let tag = document.createElement("script");
keys.forEach(key=>{
tag.setAttribute(key, obj[key]);
})
return tag ;
}