天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

截至(zhì)目前,本(běn)吉奥 发表了300多篇学(xué)术论文,累(lèi)计被引用次数超13.8万 次。吴恩达曾表示,本吉奥的许多理论研究对他有很大启发。

钛媒体App 8月24日消息(xī),被誉为“AI教父”的加拿大计算机科(kē)学家、深度(dù)学习技术先驱、2018年图灵奖 得(dé)主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的(de)时间被压缩,不幸的是,我们(men)无法利用十年的时间解决AI风险和政策监(jiān)管问题,而是更短的时间,因此 行业需要马(mǎ)上行动(dòng),加快(kuài)AI安全政策落地。

“制定(dìng)政策需要花费大量时间,它需要解决多年分歧,像这样的立法都需要数年(nián)时间才(cái)能颁布,需要建立一些流程,需很(hěn)多年时间才能真正做好这个工作(zuò),”本吉奥对彭博社表示,他现(xiàn)在担心(xīn)可能没有太多时间来“做好这(zhè)件事(shì)”。而且更(gèng)糟糕的是,AI风险这不仅是监管问题,它(tā)更是 国际条约,大(dà)家需要在全球范围内解决这个问题。

据悉,本(běn)吉奥出生于巴黎,成长于加拿(ná)大,现居加拿大蒙特利尔,在蒙特利尔大学(University of Montreal)计算机(jī)科学与(yǔ)运算系任教(jiào)授。他于1991年获得加拿大麦吉尔大学(xué)计算机科学博士学位。本吉奥的主要研究领域是深度(dù)学习和自然语言处理。

30余年(nián)的深度学习研 究生涯里,本吉奥发表了300多(duō)篇学术(shù)论文,累计被(bèi)引用次数超13.8万次。吴恩达曾表示,本吉奥的许多理(lǐ)论(lùn)研究对他有(yǒu)很大(dà)启发。

2018年,他与 “神经(jīng)网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人(rén)因开拓深度学习(xí)技 术理论(lùn)而获得 “图灵奖”,他(tā)们三位也被 AI 行业称为“AI 三巨头”、“深度学(xué)习三(sān)巨头”、“三(sān)大AI教父”。

作为“深(shēn)度学习三 巨头”之一的本吉奥曾指出(chū),AI一(yī)词正在被滥(làn)用(yòng),有些公司拟人化了AI系统,仿佛AI系统是(shì)与人类相当的智慧实体,但其实(shí)目前(qián)还没(méi)有出现与人类智慧相当的实体。当然,他依(yī)然爱 AI 这一技术。

本吉奥表示,在2022年(nián)底ChatGPT出现之前,他(tā)认(rèn)为真正的 AI 风险至(zhì)少(shǎo)还要几(jǐ)十年才会出现,他曾(céng)经有一段时间并不(bù)怎么担心AI安全问(wèn)题(tí),并(bìng)且认为人类距离开发出能(néng)够与人类匹敌的 AI 技术还(hái)有“几十年的(de)时间(jiān)”,他假设我们可以在面对风险之(zhī)前“收获AI的好处“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题”多(duō)年。

但现在,ChatGPT的推出完全改变了(le)他(tā)的想法。他不再那么确定了。

他对AI发展速度(dù)的假(jiǎ)设(shè)——以及技术对社会构(gòu)成的潜在威胁——在2022年底OpenAI发布ChatGPT后被颠覆了,因为人类水(shuǐ)平的(de) AI 技(jì)术已经到(dào)来 。

“自从我们(men)最终拥有了能够与(yǔ)我(wǒ)们(men)对话的机器(ChatGPT)后,我(wǒ)完全改变了我的想(xiǎng)法,”本吉奥表示,“我们(men)现在有了能够掌握语言的AI机器。我们没想到会这么快就做到这(zhè)一点。我认为没有人真正预料到这一(yī)点,即使是(shì)构建这些系统的人。你(nǐ)可 以看到,人(rén)们(men)认为我们(men)可(kě)能还需要几年(nián)、几十年甚至更长时间才能达到人类(lèi)水平的智能。人们普遍(biàn)认为,一旦 我们达到人类水平的智能,就很难预(yù)测会发生什 么(me)——我们最终会得到非常非常好的东西还是(shì)非常非常坏的东西,以及我(wǒ)们该如(rú)何应对。有很多(duō)不确定性。这正是(shì)我目前在科学和政策方面(miàn)工(gōng)作的动力(lì)。”

在ChatGPT引发(fā)全球关于 AI 风险的讨论之后(hòu),本(běn)吉奥(ào)开始 投入更多(duō)的精(jīng)力倡导AI监管,并且与同 为学术界和 AI 先驱的Geoffrey Hinton一(yī)起公开支持一项有争议的加州 AI 安全法案SB1047,该法(fǎ)案将使公司在不采取安全(quán)预防措(cuò)施的情况下,对其AI模“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题型(xíng)造成(chéng)的灾难性伤害承担责任。

本吉奥认为,这是“桌上第二重要(yào)的提案”,仅次于欧(ōu)盟的(de)AI法案。

当地时间8月(yuè)15日(rì),饱受争议的美国加州《前沿AI模型(xíng)安全(quán)创新法案(àn)》(后称加州AI安全法案(àn)SB 1047)在大幅度削(xuē)弱相关条款之后,最终顺利通过加州众议院拨款委员会的审核。

SB 1047旨在通过(guò)追究开(kāi)发者的责任来防止大(dà)型 AI 系(xì)统造成大(dà)量(liàng)人员(yuán)死亡 或造成损失超过(guò) 5 亿美元的网络安全事(shì)件。顺利通(tōng)过审核之后,这意味着,该法案朝 着(zhe)成为正式法律法规迈出了重要一步,也(yě)是美国(guó)在AI监管上迈出的重要一步。

但是,加州AI安全法案饱受争议。斯坦福大学教授李飞飞、Meta首席科学家杨立昆等人认为,该法案最终将会损害 加州乃至美国在(zài)AI领域的领先(xiān)地位,100多位(wèi)学界人(rén)士也发文反对,风投(tóu)机构a16z专门建立网站(zhàn)细数法(fǎ)案六宗罪。

甚至前(qián)美国众(zhòng)议院议长南希·佩洛西(Nancy Pelosi)也发声明反对此 法案,认为加(jiā)州AI安全法案意图良好但(dàn)缺乏充分了(le)解,许多重(zhòng)要的加州科(kē)技(jì)公司学者和负责人都表示(shì)反(fǎn)对该(gāi)法案,认为它 弊大于利。

最新一个(gè)反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立(lì)法将损害AI创新,并可能对美国在 AI 和(hé)国家安全方面的(de)竞争力产生“广泛而重大”的影响(xiǎng)。

然(rán)而,本(běn)吉奥却表(biǎo)示,加州(zhōu)AI安全法(fǎ)案避免(miǎn)了过于规 定性,而是使(shǐ)用责任来确保(bǎo)AI公(gōng)司不会(huì)忽视“合理专家会(huì)做的”安全预防措施。“它将为公司创造一个激励,使他们不会成为班上最差的学生。”

本吉奥指出,围绕 AI 监管的(de)讨论(lùn)可能会受到风险投(tóu)资家和希望从(cóng)该技术中获利的(de)公司的(de)影响。“你可(kě)以将其与气候变化、化(huà)石燃料公司等进行(xíng)类比,”他说。

“事实并非如此,事(shì)实恰恰相反。它没有那么大的约(yuē)束力。它并没有施加多大影响。它只是说:如果你造成了(le)数十亿(yì)美元的损失,你就要负责。几十年来,整个计算领域(yù)在某种程度上一(yī)直不受任何形(xíng)式的监(jiān)管。

我认为(反对派)更多的是(shì)意识形态。我真的很担心游说团体的力(lì)量以(yǐ)及 Ai 带来的(de)数万亿(yì)甚至(zhì)数千万亿的利润(加州大学伯克利分校教授、人工智能系(xì)统中(zhōng)心创始人Stuart Russell表示)会激励企业 反对任何监管。”本吉奥表示。

谈(tán)到风险(xiǎn)管控(kòng),本吉(jí)奥指出,“我(wǒ)认为自己对风险持怀疑态度。我听(tīng)到(dào)过很多很好的论据,认为比我们更聪明的人工智能可(kě)能非常(cháng)危险。甚至在它们比我们(men)更(gèng)聪明之前,它们就可能被(bèi)人类以对民(mín)主极其危险的方式使用。任(rèn)何说他们知(zhī)道的人都过于自(zì)信,因(yīn)为事实(shí)上,科学并没(méi)有答案。没(méi)有(yǒu)办法以可验证的方式回答。我们可以看(kàn)到这样或那样的论点,它们都是合理的。但是如果你是不可知论者,并且正在(zài)考虑政策,你需要保护公众免(miǎn)受真正糟糕的事情的伤害(hài)。这就是政府在许多其他领(lǐng)域一直在做(zuò)的事情(qíng)。没(méi)有理由说他们不能在计算和 AI 领(lǐng)域做到(dào)这一点。”

本吉奥反复强调,他没想到人类会(huì)这么快掌握(wò)对话式AI语音技术,而且目前至少达到足够人性化的水平。

“我认为,对危险事物进行快(kuài)速创新的(de)渴望是不明智的。在(zài)生(shēng)物学领域,当研究人员 发现通过所谓的功能获得研究可以制造出危险的病毒时(shí),他们一起决定,好吧,我们(men)不这 么做了。让我们要求政(zhèng)府制定规则,这样如(rú)果你这样做,至少在不受控制的情况(kuàng)下,你就会进监狱。”本吉奥表示,“我相信你知道合成儿童色(sè)情制品,也许情感上不那(nà)么具有挑战性,但更重(zhòng)要的是,同样的深度伪造可能会扭曲(qū)社会(huì)。那些深度伪造只会越来越好(hǎo)。声音会越来越好。视频会越来越好。还有(yǒu)一件事人们谈论得不够:当前(qián)甚至未来的 系统(tǒng)说服人们改变想法的能力。就在(zài)几个月前,瑞士进行了(le)一项最新研究,他们将 GPT-4 与(yǔ)人类进行了比较,看看谁(shuí)能说(shuō)服那(nà)些显然不(bù)知道自己是在和人交谈(tán)还是(shì)在和(hé)机器交谈的人(rén)改变对某事的(de)看法。猜(cāi)猜谁赢(yíng)了。”

本吉奥指出,“我(wǒ)们(men)应(yīng)该在(zài)AI方面采取类(lèi)似的(de)预防原则行为。”

展望未来,本吉奥(ào)强调,所有AI技术应用依然(rán)会 以健(jiàn)康方式(shì)改变人类(lèi)的生活方式。比如在生(shēng)物(wù)学方面,AI会(huì)了解身体如何运作、每个(gè)细胞如何运作,这可能会彻底改变医学和(hé)药物研发等领域;气候方面(miàn)它可以(yǐ)帮助制造更好的电池、更(gèng)好的碳捕获、更好的能量存储。

“虽然还没有发生,但我认为这些都是我们可以用 AI 做出的很好的技术产品。顺便说一句,这些应用——它(tā)们大部分都不(bù)是(shì)危险的。因此(cǐ),我(wǒ)们应该(gāi)在这些显然可以帮助社会应对挑战的事(shì)情上投入更多。”本吉奥在对话结尾表(biǎo)示。

截至目(mù)前,本吉奥发表了300多篇学术论文,累计(jì)被引用次数(shù)超13.8万次。吴恩达(dá)曾表示,本吉(jí)奥的许(xǔ)多理论研(yán)究对他有很大启发。

钛媒(méi)体App 8月24日(rì)消息,被誉为“AI教父”的加拿大计算机科学家、深度学习技术先驱、2018年图灵奖得主约书亚·本吉(jí)奥(Yoshua Bengio)公开表示(shì),随着ChatGPT的(de)推(tuī)出(chū),AI技术风(fēng)险的时(shí)间(jiān)被压缩,不幸的是,我们无(wú)法利用(yòng)十年的时间解决AI风(fēng)险和(hé)政(zhèng)策监管问题,而(ér)是更(gèng)短的时间,因此 行业(yè)需要马上行动,加快AI安全政策落地。

“制定(dìng)政策需要(yào)花费大量时间,它需要(yào)解决多年分歧,像这(zhè)样的立法都(dōu)需要数年时间(jiān)才能颁布,需要建立一些(xiē)流程,需很多年时间才能真正做好(hǎo)这个工作,”本吉奥对彭博社表示,他现在担心可能没有(yǒu)太(tài)多时间来“做好这件事”。而且(qiě)更糟糕的 是,AI风险这不仅是监管问题,它更是国际条约,大家需要在全球范(fàn)围内解决这个问题。

据悉,本吉(jí)奥出生于巴黎,成(chéng)长于加拿大,现居加拿(ná)大蒙特利尔,在蒙特利尔大学(University of Montreal)计算(suàn)机科学与运算系任教授。他于1991年获得加(jiā)拿大麦吉尔大(dà)学(xué)计算机科(kē)学博士学位。本吉奥的主要(yào)研(yán)究领域(yù)是深(shēn)度学习和自然语言处理。

30余年的深度学习(xí)研究生(shēng)涯(yá)里(lǐ),本吉奥发表了300多篇学术论文(wén),累(lèi)计被引用次数超13.8万(wàn)次。吴恩达曾表示,本吉(jí)奥的许多理论(lùn)研究对(duì)他有很大启发。

2018年,他与“神经(jīng)网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开(kāi)拓深度学习技术理论而获得(dé)“图灵奖(jiǎng)”,他们三位也被 AI 行业称为“AI 三巨头”、“深度(dù)学习三巨头”、“三大AI教父(fù)”。

作为(wèi)“深度(dù)学习(xí)三巨头”之一的本(běn)吉奥曾指出,AI一(yī)词正在被 滥(làn)用,有些公(gōng)司拟人化了AI系统,仿佛AI系统是与人类相当的智慧实体,但(dàn)其实目前(qián)还没有出现与人类智慧相(xiāng)当的实体。当然,他依然爱(ài) AI 这(zhè)一技(jì)术。

本吉奥表示,在2022年底ChatGPT出现之前(qián),他认为真正(zhèng)的 AI 风险至少(shǎo)还要几十年才会(huì)出现,他曾经有一段时(shí)间(jiān)并不怎么担心AI安全问题(tí),并(bìng)且认 为人类距离开发出能够与人类匹(pǐ)敌的 AI 技(jì)术还有“几(jǐ)十年的时间”,他假设我们可以在面对(duì)风险之前“收获AI的好(hǎo)处”多年。

但现在,ChatGPT的推出完全改变了他的想法。他不再那么确(què)定了。

他对AI发展速度的假设——以及技(jì)术对社会构成的潜在威(wēi)胁——在2022年底OpenAI发布(bù)ChatGPT后(hòu)被颠覆了,因为(wèi)人类水平的 AI 技术已经到来(lái)。

“自(zì)从我们最(zuì)终拥有(yǒu)了(le)能(néng)够(gòu)与我们对话的机器(ChatGPT)后,我完全(quán)改(gǎi)变了我的想法,”本吉奥表示,“我们现在有了能够掌(zhǎng)握语言的AI机器。我们没想(xiǎng)到会这么快就做到这一(yī)点。我认为没有(yǒu)人(rén)真正预料到这一点,即使是构(gòu)建这些系(xì)统的人。你可以看到,人们认为我(wǒ)们(men)可能还需要几年、几十年甚至更长时间才能(néng)达到人类水平的智能(néng)。人们(men)普遍(biàn)认 为,一旦我们达到人(rén)类水平的智(zhì)能,就很难预(yù)测会发(fā)生什(shén)么——我们最(zuì)终会得到非常非常好的东西还是非(fēi)常非常坏(huài)的东西(xī),以(yǐ)及我(wǒ)们该如何应对。有很多不确定(dìng)性(xìng)。这正是我目前在科学和(hé)政策(cè)方面工作的动力。”

在(zài)ChatGPT引(yǐn)发全(quán)球关于 AI 风险的讨论之(zhī)后,本吉奥开始投入更多的精力倡导AI监(jiān)管,并且与 同为学术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的加(jiā)州 AI 安全法(fǎ)案SB1047,该法案(àn)将使公司在不采(cǎi)取安全预防措施的情况下,对其AI模(mó)型造成的灾难性(xìng)伤害承(chéng)担责任。

本吉奥认为(wèi),这是“桌上第二重要的(de)提案(àn)”,仅次于欧盟的AI法案。

当地时(shí)间8月15日,饱(bǎo)受争议的(de)美国 加州《前沿AI模 型(xíng)安全创新(xīn)法案》(后称(chēng)加州(zhōu)AI安全法案SB 1047)在大幅度削弱相关条款之后,最(zuì)终(zhōng)顺利通过(guò)加(jiā)州众议 院拨款委员会(huì)的审核。

SB 1047旨在通过追究开发者(zhě)的责任来防(fáng)止大型 AI 系(xì)统造成大(dà)量人员死亡或造成(chéng)损失(shī)超过 5 亿美元的网络安全事件。顺利(lì)通过审核之后 ,这意味着,该法(fǎ)案朝着成(chéng)为正式法律法规迈(mài)出了重要一步(bù),也是美国在(zài)AI监管(guǎn)上迈(mài)出的重 要一步。

但是,加州AI安全法案(àn)饱受争议。斯坦福大学教授李飞 飞(fēi)、Meta首(shǒu)席科学家杨立昆等人认为,该法(fǎ)案最(zuì)终将会损害加州乃至美国在AI领域的领先地位,100多位学界人士也发文反对,风投机 构a16z专门 建立网站细(xì)数法案六宗罪。

甚至前美国众议院议长南希·佩洛西(Nancy Pelosi)也发(fā)声明反对此(cǐ)法 案,认(rèn)为(wèi)加州AI安(ān)全法案意图良好但缺乏充分了解,许多重要的加州科技公司学者和负责人都表示反对 该法案,认为(wèi)它(tā)弊大于利。

最新(xīn)一个 反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立法将损害AI创新,并可能对美国在 AI 和国(guó)家安 全方(fāng)面的竞争力产(chǎn)生“广泛而重 大”的影响。

然而,本吉奥却表示,加州AI安全法案避免了过于规(guī)定性,而是使用(yòng)责任(rèn)来确(què)保AI公司(sī)不会忽视“合理专家会做的”安全预(yù)防措施。“它将(jiāng)为公(gōng)司创造一个激励(lì),使他们不会成为班 上最差的学生。”

本(běn)吉奥指出,围绕 AI 监管的讨论(lùn)可能会受到风险投 资家和希望从该技术中获利的公(gōng)司的影响。“你可以将其与气候变化、化石燃(rán)料公司等进行类比,”他说。

“事实并非(fēi)如此,事实恰恰相反。它没有那么大的约束力。它并(bìng)没 有(yǒu)施加多大影响。它只是说:如果你造成了数十亿美元的损(sǔn)失 ,你就(jiù)要负责(zé)。几十年来,整个计算领域在某种程度上一直不(bù)受(shòu)任何形式的监管。

我(wǒ)认为(反对派)更多的(de)是意识(shí)形态(tài)。我真的很(hěn)担心游说团体(tǐ)的力量以及(jí) Ai 带来的数万亿甚至数(shù)千万亿的利润(加州大 学伯克利分校教授、人工智能系统中心创始人(rén)Stuart Russell表示)会激励企业(yè)反对(duì)任何监管。”本吉奥(ào)表示。

谈到风险管控(kòng),本吉(jí)奥指出,“我认为自己 对风险持怀疑态度。我听到过很多很好的论据(jù),认为比我们更聪明的(de)人 工智能可能非常危险。甚至在它(tā)们比 我们更(gèng)聪明之前,它(tā)们就可能(néng)被人类以对民主极其危险的方式(shì)使用。任何说他们知道的人都过于自信,因为事实上,科学并没有答案。没有(yǒu)办法以可验证的方式回答。我们(men)可以看(kàn)到(dào)这样或那样的论点,它们 都是合理的。但是如果你是不可知论者,并且正在考虑政(zhèng)策(cè),你需要保护公众免(miǎn)受真正糟糕(gāo)的(de)事情的伤害(hài)。这(zhè)就是(shì)政府在许多其(qí)他(tā)领域一(yī)直(zhí)在做的事情。没有理由说他们不能在计算和 AI 领域做到这(zhè)一(yī)点。”

本吉奥反复强调,他没(méi)想到人(rén)类会这么快掌握对话式AI语(yǔ)音技(jì)术,而(ér)且目前至少达到足够(gòu)人性化的水平(píng)。

“我认为,对危(wēi)险事物进行快(kuài)速创新的渴望是不明智的(de)。在生(shēng)物学领域,当研究人员发现通过所谓的功能获得研究 可(kě)以(yǐ)制造出危险的病毒时,他们一起决定,好吧,我们不这么做了。让我们要求政府制定规则,这样如果你这样做,至(zhì)少在不(bù)受控制的 情况下,你(nǐ)就会进监狱。”本(běn)吉奥表示,“我相信你(nǐ)知道合成儿童色情(qíng)制品,也许情感上不那(nà)么具有挑战性(xìng),但更重要的是,同样的深度(dù)伪造可能会扭曲社会。那些深度伪造只(zhǐ)会越(yuè)来越好(hǎo)。声音会越来越 好。视频会越来越(yuè)好。还(hái)有(yǒu)一件(jiàn)事人们谈论得不够:当前(qián)甚至未来的系统说服人们改变想(xiǎng)法的能力。就在几个月前,瑞士进行了一项最新(xīn)研究,他们将 GPT-4 与人类进 行(xíng)了比较(jiào),看看谁(shuí)能说服那些显然不(bù)知道自(zì)己是在和人交谈还是在和机器(qì)交谈的人改变对某事的看法。猜猜谁赢了。”

本吉奥(ào)指出(chū),“我们应该在AI方面采取(qǔ)类似的预防原则行为。”

展望未来,本吉奥强调,所有AI技术 应用(yòng)依然会以健康方式改变人类的(de)生活方式。比如在生 物学方面(miàn),AI会(huì)了解身体如(rú)何运作、每个细胞如何运作,这可能会彻(chè)底改变医学和药(yào)物研发等领域;气候方面它(tā)可以帮助制造更(gèng)好的电池、更好的(de)碳捕获、更好的能量存储。

“虽然还没有发生,但我认为这些都是我(wǒ)们(men)可以用 AI 做(zuò)出(chū)的很好的技术产品。顺便说 一句,这些应(yīng)用——它们大部(bù)分都不是(shì)危险(xiǎn)的。因此,我们应该在这些显然可以帮助 社会应对挑战(zhàn)的事(shì)情上投(tóu)入更多(duō)。”本吉奥在(zài)对(duì)话结尾表示。

未经允许不得转载:天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

评论

5+2=