鳳凰網(wǎng)科技訊 《AI前哨》北京時(shí)間7月26日消息,美國(guó)當(dāng)?shù)貢r(shí)間周二,三位人工智能(AI)行業(yè)領(lǐng)袖在美國(guó)國(guó)會(huì)參議院司法委員會(huì)舉行的聽(tīng)證會(huì)上作證。他們警告稱(chēng),AI的瘋狂發(fā)展速度可能會(huì)在未來(lái)幾年內(nèi)造成嚴(yán)重危害,比如流氓國(guó)家或恐怖分子會(huì)利用這項(xiàng)技術(shù)制造生化武器。
此次聽(tīng)證會(huì)很好地展示了人們對(duì)于AI會(huì)超過(guò)人類(lèi)智慧的擔(dān)憂(yōu)。多年來(lái),人們的這種擔(dān)憂(yōu)原本只存在于科幻小說(shuō)中。然而,隨著ChatGPT橫空出世并引發(fā)AI競(jìng)賽,這一擔(dān)憂(yōu)迅速成為主流聲音。
兩年就可制造生化武器
美國(guó)AI創(chuàng)業(yè)公司Anthropic CEO達(dá)里奧·阿莫代伊(Dario Amodei)在聽(tīng)證會(huì)上表示,他擔(dān)心尖端AI技術(shù)可能在短短兩年時(shí)間內(nèi)就會(huì)被用來(lái)制造危險(xiǎn)的病毒和其他生化武器。
蒙特利爾大學(xué)AI教授、“現(xiàn)代AI科學(xué)之父”約書(shū)亞·本吉奧(Yoshua Bengio)認(rèn)為,美國(guó)應(yīng)該推動(dòng)國(guó)際合作來(lái)控制AI的發(fā)展,他還概述了一種類(lèi)似于核技術(shù)國(guó)際監(jiān)管規(guī)則的管理制度。
“最近,我和其他許多人都對(duì)ChatGPT等AI系統(tǒng)實(shí)現(xiàn)的巨大飛躍感到驚訝。AI進(jìn)步的加快更令人擔(dān)憂(yōu)?!北炯獖W表示。
現(xiàn)代AI科學(xué)之父本吉奧
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·拉塞爾(Stuart Russell)指出,AI的工作方式意味著,與其他強(qiáng)大技術(shù)相比,它更加難以被完全理解和控制。
過(guò)去六個(gè)月里,包括本吉奧在內(nèi)的一些知名研究人員已經(jīng)將他們所認(rèn)為的“超級(jí)智能”AI可能出現(xiàn)的時(shí)間從幾十年后提前到了僅僅幾年后。目前,這些擔(dān)憂(yōu)在硅谷、媒體界和華盛頓引發(fā)反響。政客們把這些威脅列為政府需要通過(guò)立法的原因之一。
參議院司法委員會(huì)小組委員會(huì)主席理查德·布盧門(mén)撒爾(Richard Blumenthal)主持了此次聽(tīng)證會(huì)。他表示,人類(lèi)已經(jīng)證明自己有能力發(fā)明當(dāng)時(shí)令人難以置信的新技術(shù)。他把AI比作美國(guó)研制核武器的“曼哈頓計(jì)劃”或美國(guó)宇航局的載人登月計(jì)劃。
“我們已經(jīng)做到了人們以前認(rèn)為不可思議的事情,”他在聽(tīng)證會(huì)上說(shuō),“我們知道如何干大事?!?/p>
司法委員會(huì)小組委員會(huì)主席布盧門(mén)撒爾
不過(guò),對(duì)于周二聽(tīng)證會(huì)上概述的超級(jí)智能AI到來(lái)的激進(jìn)時(shí)間表,并不是所有研究人員都認(rèn)同。質(zhì)疑者指出,炒作AI的潛力可能有助于企業(yè)兜售這項(xiàng)技術(shù)。其他知名AI領(lǐng)袖表示,那些討論AI接管世界等生存威脅的人,是在夸大這項(xiàng)技術(shù)的能力,不必要地散播恐懼。
巨頭壟斷
在此次聽(tīng)證會(huì)上,一些參議員還提出了未來(lái)可能會(huì)出現(xiàn)的反壟斷擔(dān)憂(yōu)。密蘇里州共和黨參議員喬希·霍利(Josh Hawley)表示,其中一個(gè)風(fēng)險(xiǎn)是微軟和谷歌等大型科技公司對(duì)AI的壟斷。多年來(lái),霍利一直是大型科技公司的嚴(yán)厲批評(píng)者,他利用此次聽(tīng)證會(huì)的機(jī)會(huì)辯稱(chēng),這些技術(shù)背后的公司本身就是一種風(fēng)險(xiǎn)。
“我相信壟斷會(huì)有利于企業(yè),我對(duì)此毫不懷疑,”霍利表示,“但我不太確信的是,人們是否會(huì)因此受到傷害?!?/p>
新監(jiān)管機(jī)構(gòu)
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯拉塞爾認(rèn)為,有必要成立一個(gè)專(zhuān)門(mén)聚焦AI的新監(jiān)管機(jī)構(gòu)。他預(yù)測(cè),AI最終將徹底改變經(jīng)濟(jì),為GDP的增長(zhǎng)做出巨大貢獻(xiàn),因此需要健全和專(zhuān)門(mén)的監(jiān)管。
Anthropic CEO阿莫代伊則表示,他對(duì)于是否成立一個(gè)新的機(jī)構(gòu),或者是否利用美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)等現(xiàn)有監(jiān)管機(jī)構(gòu)來(lái)監(jiān)管AI持“不可知論”態(tài)度,但他表示,必須為AI公司建立標(biāo)準(zhǔn)測(cè)試,以檢驗(yàn)這些公司的技術(shù)來(lái)識(shí)別潛在危害。
“從監(jiān)管角度而言,在我們確定并制定相關(guān)程序之前,我們都是在瞎猜,”阿莫代伊表示,“如果我們沒(méi)有適當(dāng)?shù)臇|西來(lái)限制AI系統(tǒng),我們的日子就不會(huì)好過(guò)?!?/p>
與本吉奧、拉塞爾不同的是,阿莫代伊經(jīng)營(yíng)著一家正在推動(dòng)AI技術(shù)向前發(fā)展的公司Anthropic。該公司的員工都是前谷歌和OpenAI的研究人員,試圖將自己定位為比大型科技公司的技術(shù)考慮更周到、更謹(jǐn)慎的替代品。而且,Anthropic從谷歌那里獲得了大約3億美元的投資,并依靠谷歌的數(shù)據(jù)中心來(lái)運(yùn)行其AI模型。
他還呼吁為AI研究提供更多聯(lián)邦資金,以學(xué)習(xí)如何降低AI帶來(lái)的一系列風(fēng)險(xiǎn)。阿莫代伊預(yù)測(cè),在未來(lái)兩到三年內(nèi),惡意分子可能會(huì)利用AI來(lái)幫助開(kāi)發(fā)生化武器,繞過(guò)旨在阻止人們開(kāi)發(fā)此類(lèi)武器的嚴(yán)格行業(yè)控制?!拔覔?dān)心我們能否及時(shí)做到這一點(diǎn),但我們必須嘗試?!彼硎?。鳳凰網(wǎng)科技《AI前哨》對(duì)此將持續(xù)關(guān)注。