面對可能迅速發(fā)展的人工智能,全球的風險應對能力似乎并未步入正軌。
在韓國首爾舉行的第二屆人工智能安全峰會(5月21日至22日)開展之際,25位世界領先的人工智能科學家在《科學》雜志上共同發(fā)表了一篇專家共識論文,他們認為,當今全球在保護人類免受技術滋生的風險方面做得還不夠。
在論文中,他們概述了全球領導人應該采取的緊急政策優(yōu)先事項,以應對人工智能技術的威脅。
重要建議
該論文的合著者包括Geoffrey Hinton, Andrew Yao, Dawn Song,Daniel Kahneman等25位世界領先的人工智能及其治理學術專家。這些作者來自美國、中國、歐盟、英國和其他人工智能大國,其中還包括圖靈獎得主、諾貝爾獎獲得者和標準人工智能教科書的作者。
這些科學家指出,世界各國領導人必須認真對待在當前十年或未來十年開發(fā)出強大的通用人工智能(AGI)系統(tǒng)的可能性,這種系統(tǒng)有可能在許多關鍵領域的表現都超越了人類。
他們還稱,盡管世界各國政府一直在討論前沿人工智能,并在引入初步指導方針方面做出了一些嘗試,但這與許多專家預期的快速、變革性進展的可能性根本不相稱。
該論文的合著者、牛津大學工程科學系的Philip Torr教授稱,“在上次人工智能峰會上,全世界都贊成需要采取行動,但現在是時候從模糊的建議變成具體的承諾了!
這篇論文為公司和政府應該承諾做什么提供了一些重要建議,包括:
建立能迅速對風險作出反應的專家機構來監(jiān)督人工智能,并為這些機構提供更多的資金。
要求更嚴格的風險評估,并具有可執(zhí)行的結果,而不是依賴于自愿的或未明確的模型評估。
要求人工智能公司優(yōu)先考慮安全,并證明他們的系統(tǒng)不會造成傷害,人工智能開發(fā)人員應考慮安全性。
實施與人工智能系統(tǒng)構成的風險水平相符的風險緩釋標準。應設置適當的策略,當人工智能達到某些能力里程碑時自動觸發(fā)嚴格的要求;但如果人工智能進展緩慢,要求會相應放寬。
值得一提的是,當地時間周二(5月21日)在首爾人工智能峰會上,微軟、亞馬遜、OpenAI等科技巨頭就人工智能安全達成了一項具有里程碑意義的國際協議。
這項協議下,許多企業(yè)做出承諾,包括發(fā)布安全框架,列出衡量潛在風險;一旦發(fā)現了這種極端情況,如果不能保證降低風險,企業(yè)們就需要打開“緊急停止開關”,叫停AI模型的開發(fā)進程。
政府監(jiān)管帶頭
根據作者的說法,對于未來異常強大的人工智能系統(tǒng),政府必須準備好在監(jiān)管方面發(fā)揮帶頭作用。這包括:許可這些系統(tǒng)的開發(fā),限制其在關鍵社會角色中的自主權,停止其開發(fā)和部署以應對令人擔憂的功能,強制訪問控制,以及要求對國家級黑客采取強有力的信息安全措施。
加州大學伯克利分校計算機科學教授、世界標準人工智能教科書的作者斯圖爾特·羅素Stuart Russell OBE表示,“這是一份由頂尖專家達成共識的論文,它呼吁政府嚴格監(jiān)管,而不是由行業(yè)制定自愿的行為準則!
他補充道,“是時候認真對待先進的人工智能系統(tǒng)了。這些不是玩具。如果說‘監(jiān)管扼殺了創(chuàng)新’,那太荒唐了,因為對那些普通三明治店的監(jiān)管甚至比對人工智能公司的監(jiān)管還多!