首頁|必讀|視頻|專訪|運(yùn)營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁 >> 人工智能 >> 正文

OpenAI成立新的安全顧問委員會(huì) 成員全是自己人

2024年5月29日 10:01  華爾街見聞  

過去幾個(gè)月,OpenAI的技術(shù)團(tuán)隊(duì)中有多名安全方面的高層人員離職,這些前員工中有些人對(duì)OpenAI在AI安全方面的優(yōu)先級(jí)下降表示擔(dān)憂。

OpenAI周二宣布成立一個(gè)新的安全顧問委員會(huì),負(fù)責(zé)監(jiān)督與公司項(xiàng)目和運(yùn)營相關(guān)的“關(guān)鍵”安全和安保決策。而值得注意的是,進(jìn)入該安全顧問委員會(huì)的成員全部為該公司內(nèi)部人員,包括OpenAI的CEO Sam Altman,外部人員一個(gè)也沒有。

根據(jù)OpenAI公司博客上的一篇文章,安全顧問委員會(huì)將在接下來90天內(nèi)負(fù)責(zé)評(píng)估OpenAI得安全流程和保障措施。然后,該委員會(huì)將向OpenAI董事會(huì)匯報(bào)其發(fā)現(xiàn)和建議,OpenAI表示,屆時(shí)將以符合安全和安保的方式公布任何已采納的建議的更新。

OpenAI周二表示,已開始訓(xùn)練新一代旗艦人工智能模型,以期超越目前的GPT-4大模型!癘penAI最近開始訓(xùn)練其下一個(gè)前沿模型,我們預(yù)計(jì)由此產(chǎn)生的系統(tǒng)將使我們?cè)谕ㄍㄓ萌斯ぶ悄艿牡缆飞线~上一個(gè)新臺(tái)階,”O(jiān)penAI寫道。“雖然我們很自豪地構(gòu)建和發(fā)布在能力和安全方面都領(lǐng)先的模型,但我們歡迎在這個(gè)重要時(shí)刻進(jìn)行深入討論!

除了Altman,安全顧問委員會(huì)的其他成員包括OpenAI董事會(huì)成員Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科學(xué)家Jakub Pachocki、OpenAI早期籌備團(tuán)隊(duì)的Aleksander Madry、安全系統(tǒng)負(fù)責(zé)人Lilian Weng、安保負(fù)責(zé)人Matt Knight和“人工智能對(duì)齊”(AI Alignment)負(fù)責(zé)人John Schulman。

安全不再優(yōu)先 多名高層離職

過去幾個(gè)月,OpenAI的技術(shù)團(tuán)隊(duì)中有多名安全方面的高層人員離職,這些前員工中有些人對(duì)OpenAI在AI安全方面的優(yōu)先級(jí)下降表示擔(dān)憂。

曾在OpenAI擔(dān)任團(tuán)隊(duì)治理工作的Daniel Kokotajlo在4月辭職,因?yàn)樗麑?duì)OpenAI在發(fā)布越來越強(qiáng)大的AI時(shí)“負(fù)責(zé)任的行為”失去了信心,他在個(gè)人博客上寫道。此外,OpenAI的聯(lián)合創(chuàng)始人兼前首席科學(xué)家Ilya Sutskever在與Altman及其盟友的長期斗爭(zhēng)后,于5月離職,據(jù)報(bào)道部分原因是Altman急于推出AI驅(qū)動(dòng)的產(chǎn)品而犧牲了安全性能。

最近,前DeepMind研究員Jan Leike此前在OpenAI負(fù)責(zé)開發(fā)ChatGPT及其前身InstructGPT的過程中,也辭去了安全研究員職務(wù),他在一系列X平臺(tái)的帖子中表示,他認(rèn)為OpenAI“未走在解決AI安全和安保問題的正確軌道上”。同時(shí),AI政策研究員Gretchen Krueger上周離開OpenAI,她也同意Leike的觀點(diǎn),呼吁公司提高問責(zé)制和透明度,并“更加謹(jǐn)慎地使用自己的技術(shù)”。

媒體報(bào)道,除了Sutskever、Kokotajlo、Leike和Krueger,自去年年底以來,至少有五名OpenAI最重視安全的員工要么辭職,要么被迫離開,包括前OpenAI董事會(huì)成員Helen Toner和Tasha McCauley。兩人日前在媒體撰文稱,在Altman的領(lǐng)導(dǎo)下,他們相信OpenAI無法實(shí)現(xiàn)對(duì)自身追究責(zé)任。

“根據(jù)我們的經(jīng)驗(yàn),OpenAI的自我治理無法承受利潤激勵(lì)帶來的誘惑!

倡導(dǎo)監(jiān)管?塑造監(jiān)管

此前有媒體報(bào)道,負(fù)責(zé)開發(fā)“超級(jí)智能”AI系統(tǒng)治理方法的OpenAI超級(jí)對(duì)齊(Superalignment team)團(tuán)隊(duì)被承諾獲得公司20%的計(jì)算資源,但實(shí)際上卻很少這部分資源。超級(jí)對(duì)齊團(tuán)隊(duì)自那以后被解散,其工作大部分被轉(zhuǎn)交給“人工智能對(duì)齊”(AI Alignment)負(fù)責(zé)人John Schulman和OpenAI在12月成立的安全咨詢小組。

雖然OpenAI一直在倡導(dǎo)AI監(jiān)管,但也在努力影響塑造這些監(jiān)管,該公司聘請(qǐng)了一名內(nèi)部游說者和越來越多的外部律師事務(wù)所游說者,僅在美國游說方面該公司2023年第四季度就花費(fèi)了數(shù)十萬美元。最近,美國國土安全部宣布Altman將成為其新成立的人工智能安全和安保委員會(huì)(Artificial Intelligence Safety and Security Board)的成員,該委員會(huì)將為“安全和可靠的AI開發(fā)和部署”提供建議,以覆蓋美國的關(guān)鍵基礎(chǔ)設(shè)施。

而為了避免由于安全和安保委員會(huì)全部為內(nèi)部高管而被認(rèn)為是橡皮圖章,OpenAI承諾聘請(qǐng)第三方“安全、安保和技術(shù)”專家來支持委員會(huì)的工作,包括網(wǎng)絡(luò)安全專家Rob Joyce和前美國司法部官員John Carlin。

然而,除了Joyce和Carlin,OpenAI尚未詳細(xì)說明該外部專家組的規(guī)模和組成,也沒有透露該組對(duì)委員會(huì)的影響力和權(quán)力的限制。有專家指出,OpenAI成立此類的企業(yè)監(jiān)督委員會(huì),類似于谷歌的高級(jí)技術(shù)外部咨詢委員會(huì),其實(shí)在實(shí)際監(jiān)督方面幾乎沒有什么作為。

編 輯:章芳
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國移動(dòng)李慧鏑:積極推進(jìn)算力網(wǎng)絡(luò)AI注智賦能,推動(dòng)實(shí)現(xiàn)自智網(wǎng)絡(luò)“三零三自”愿景
精彩專題
CES 2024國際消費(fèi)電子展
2023年信息通信產(chǎn)業(yè)盤點(diǎn)暨頒獎(jiǎng)禮
飛象網(wǎng)2023年手機(jī)評(píng)選
第24屆中國國際光電博覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像