美國AI安全研究院將對OpenAI和Anthropic的新AI模型進行安全評估,以確保技術(shù)進步不會帶來社會風險。該研究院成立于2023年,是拜登-哈里斯政府行政命令的產(chǎn)物,旨在推動負責任的AI創(chuàng)新。OpenAI和Anthropic的高層均對合作表示支持,并強調(diào)了安全在AI發(fā)展中的重要性。
美東時間8月29日周四,據(jù)媒體報道,AI領(lǐng)軍企業(yè)OpenAI和Anthropic已同意在推出新的AI模型之前,先讓美國政府下面的AI安全研究所來評估這些模型的能力和可能帶來的風險,并共同研究方法以減輕潛在安全隱患,確保這些AI技術(shù)不會對社會帶來負面影響。
美國AI安全研究所是2023年在拜登-哈里斯政府的一項關(guān)于AI的行政命令下成立的。這個研究所的任務(wù)是開發(fā)測試、評估和指導方針,以確保AI技術(shù)能夠負責任地進行創(chuàng)新。此外,根據(jù)美國商務(wù)部的國家標準與技術(shù)研究所(NIST)周四宣布的協(xié)議,美國政府將與英國的AI安全研究所密切合作,給這些AI公司提供反饋,幫助他們改進安全措施。
美國AI安全研究院所長Elizabeth Kelley對此表示:
“安全對于推動突破性技術(shù)創(chuàng)新至關(guān)重要。這些協(xié)議雖然只是一個開始,但它們對于我們負責任地引領(lǐng)人工智能的未來發(fā)展具有重大意義!
OpenAI首席戰(zhàn)略官Jason Kwon對合作表示支持:
“我們非常支持美國AI安全研究所的使命,并期待一起合作,制定AI模型的安全最佳實踐和標準。我們相信,該研究所在確保美國在負責任開發(fā)AI方面的領(lǐng)導地位上扮演著關(guān)鍵角色。我們期望通過與研究所的合作,能為全球提供一個可以借鑒的框架!
Anthropic公司也表示,建立有效測試AI模型的能力非常重要。該公司的聯(lián)合創(chuàng)始人兼政策負責人Jack Clark說:
“確保AI安全可靠對于讓這項技術(shù)帶來積極影響是至關(guān)重要的。通過這樣的測試和合作,可以更好地發(fā)現(xiàn)和減少AI帶來的風險,推動負責任的AI發(fā)展。我們?yōu)槟軌騾⑴c這項重要工作感到自豪,并希望為AI的安全性和可信度設(shè)立新的標準!
另外,值得注意的是,得到了微軟(413.12, 2.52, 0.61%)支持的OpenAI公司正在準備新一輪融資,目標是至少籌集10億美元,這將使公司的估值超過1000億美元。微軟自2019年以來向OpenAI投入了130億美元,現(xiàn)在擁有這家公司49%的利潤分成。
關(guān)于新一輪融資的消息大約是在OpenAI透露他們正在測試一個叫SearchGPT的新功能后一個月傳出來的。這個新功能是將AI技術(shù)和實時搜索數(shù)據(jù)結(jié)合起來,ChatGPT未來可能不僅能回答問題,還能幫你在網(wǎng)上找答案。