就在歐盟《人工智能法案》落地只差最后一公里時,內(nèi)部出現(xiàn)了不同聲音。
近日,據(jù)報道,一份聯(lián)合文件顯示法國、德國、意大利就如何監(jiān)管人工智能達(dá)成協(xié)議。三個歐洲重要經(jīng)濟(jì)體一致認(rèn)為,《人工智能法案》不應(yīng)針對基礎(chǔ)模型,歐洲需要“一個促進(jìn)創(chuàng)新和競爭的監(jiān)管框架,以便歐洲參與者能在全球人工智能變革中位于前列。”
法德意的發(fā)難,似乎讓他們站在了歐洲議會立法者的對立面——后者希望嚴(yán)格監(jiān)管基礎(chǔ)模型。
歐盟《人工智能法案》是全球首部人工智能的法律草案,正處于立法程序的最后階段。受訪專家指出,當(dāng)前核心分歧是基礎(chǔ)模型的監(jiān)管方式,各方應(yīng)該在12月6日的三方談判上提出解決方案。如果屆時無法達(dá)成共識,《人工智能法案》落地或面臨壓力。
反對分級監(jiān)管模型
法德意發(fā)布的文件首先指出,人工智能的本質(zhì)風(fēng)險是應(yīng)用,而不是技術(shù)本身,由此“反對基礎(chǔ)模型的兩層分級方法”。
“兩層分級方法”指的是《人工智能法案》中,將人工智能系統(tǒng)劃分為不同的風(fēng)險組,規(guī)定不同的合規(guī)義務(wù)。一些義務(wù)僅適用于算力更強(qiáng)、更通用的大模型,從而產(chǎn)生了一套兩層規(guī)則。三個國家在文件中明確要求對基礎(chǔ)模型放棄這套規(guī)則。
模型卡是他們提出的替代方案。模型卡的內(nèi)容必須包含模型的功能和缺陷。根據(jù)文件示例,具體有模型參數(shù)量、預(yù)期用途、潛在限制、偏見測試結(jié)果,以及紅隊(duì)安全評估結(jié)果。
此外,聯(lián)合文件還呼吁自愿承諾、延遲建立制裁。法德意三國都贊成,AI提供商應(yīng)做出具有約束力的自愿承諾,且最初不實(shí)施任何制裁措施。文件提到,只有在一定時間后發(fā)現(xiàn)違規(guī)行為,再建立明確的制裁機(jī)制。
《人工智能法案》授權(quán)草案于今年6月高票通過歐洲議會,目前已經(jīng)進(jìn)入成員國、歐洲議會、歐盟委員會的“三方談判”,原計劃年底前通過。
據(jù)了解,三方本在10月24日就分級監(jiān)管模型達(dá)成了初步共識,但包括法國、德國、意大利在內(nèi)的至少五個成員國改變立場,提出不應(yīng)對基礎(chǔ)模型施加任何監(jiān)管;10月30日,法德意三國在意大利首都羅馬舉行高級別會議,決定加強(qiáng)人工智能領(lǐng)域合作;本月19日,法德意開始分發(fā)非正式文件,再次轉(zhuǎn)變監(jiān)管立場,提出用模型卡來監(jiān)管基礎(chǔ)模型。關(guān)于《人工智能法案》的談判仍在繼續(xù)。
核心矛盾在基礎(chǔ)模型
同濟(jì)大學(xué)法學(xué)院助理教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員朱悅分析,聯(lián)合文件與《人工智能法案》立法談判其他各方的實(shí)質(zhì)性矛盾集中于一點(diǎn)——如何監(jiān)管、由誰監(jiān)管基礎(chǔ)模型。
對于基礎(chǔ)模型,《人工智能法案》始終主張風(fēng)險分級,但與聯(lián)合文件的風(fēng)險識別思路有很大不同。北京師范大學(xué)法學(xué)院博士生導(dǎo)師、中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括指出,整體來看,《人工智能法案》強(qiáng)調(diào)前置、抽象的風(fēng)險判定,而聯(lián)合文件強(qiáng)調(diào)后置、實(shí)際的風(fēng)險判定。
落到具體層面,模型卡可能涉及主體更少,合規(guī)義務(wù)更輕。朱悅認(rèn)為,早先三方談判中達(dá)成的分級監(jiān)管,涵蓋了數(shù)據(jù)治理、紅藍(lán)對抗等實(shí)質(zhì)性義務(wù)。而以透明義務(wù)和行為守則為核心的模型卡,更多屬于一種弱強(qiáng)制性的自律監(jiān)管。對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任張欣補(bǔ)充,模型卡主要針對基礎(chǔ)模型的開發(fā)者,分級監(jiān)管則面向整個人工智能系統(tǒng)的開發(fā)者、部署者、運(yùn)行者。不過,“分級監(jiān)管確實(shí)存在一定挑戰(zhàn),比如未來步入真正的通用人工智能(AGI)階段時,可能有分級標(biāo)準(zhǔn)難設(shè)定、風(fēng)險動態(tài)變化的挑戰(zhàn)。又比如,在現(xiàn)有方案下,可能導(dǎo)致基礎(chǔ)模型的開發(fā)者承擔(dān)較多連帶義務(wù)和責(zé)任!睆埿勒f。
張欣向21記者進(jìn)一步解釋,模型卡類似于基礎(chǔ)模型說明書,示例中的安全測試、偏見測試類似出廠前的產(chǎn)品測試。如果按照早先《人工智能法案》規(guī)定的分級監(jiān)管,落在高風(fēng)險區(qū)域的大模型相關(guān)主體,還需要履行一系列備案、糾正、標(biāo)識等合規(guī)義務(wù),負(fù)擔(dān)可能遠(yuǎn)遠(yuǎn)大于模型卡。
一個更關(guān)鍵的問題也許是,誰來決定模型卡的嚴(yán)格程度,以及誰來執(zhí)行。
在朱悅看來,不能簡單斷言模型卡和分級監(jiān)管之間有本質(zhì)差別。如果模型卡配置了詳細(xì)、深入的可解釋性條目,其依然可以稱為一種深入的監(jiān)管。但如果模型卡不是交給專門監(jiān)管機(jī)關(guān)或者數(shù)據(jù)保護(hù)機(jī)關(guān),而是主要由行業(yè)協(xié)會或者技術(shù)社區(qū)來評估和執(zhí)行,自由度就會相對充裕。
此外,聯(lián)合文件中的自愿承諾也值得注意。張欣表示,“一般情況下,如果要求企業(yè)自我承諾,那么違背承諾時執(zhí)法機(jī)關(guān)會采取相應(yīng)的處罰措施!钡(lián)合文件提議推遲制裁,并沒有進(jìn)一步明確到底要如何建立強(qiáng)制性、有約束力的自我承諾機(jī)制。
受訪專家均認(rèn)同,聯(lián)合文件旨在為基礎(chǔ)模型的開發(fā)者松土。
一個值得關(guān)注的時間點(diǎn)是今年10月。就在這個月,巴黎的初創(chuàng)公司Mistral AI發(fā)布了自己的大模型Mistral 7B,據(jù)稱性能超過Meta 的 Llama 2大模型,且算力耗費(fèi)更少,一舉成為人工智能領(lǐng)域一顆冉冉上升的新星。與此同時,德國的AI領(lǐng)頭公司 Aleph Alpha GmbH 也獲得了超過5億美元的B輪融資,官網(wǎng)自稱“德國自己的OpenAI”。
除了本國冠軍企業(yè)的大模型發(fā)展迅速,政府面臨游說壓力外,法德意也有布局人工智能的國家性戰(zhàn)略。今年6月,法國總統(tǒng)馬克龍宣布要推動法國成為歐洲的AI中心,劃撥5億歐元發(fā)展人工智能。德國數(shù)字事務(wù)部長則在近期采訪中,將德國定位為“進(jìn)入全球人工智能領(lǐng)域最高梯隊(duì)競爭”,發(fā)展野心可見一隅。
《AI法案》或踩下剎車
法德意此時叫板,最令人關(guān)心的問題無疑是:《人工智能法案》還能順利落地嗎?
張欣表示,目前難以預(yù)料聯(lián)合文件的實(shí)質(zhì)影響,但它的確為《人工智能法案》達(dá)成共識增加了不確定性。
在朱悅看來,達(dá)成共識的可能性很大。主要依據(jù)是各方已經(jīng)初步達(dá)成了共識——同意一定程度上監(jiān)管基礎(chǔ)模型,只是在概念、時限和其他一些關(guān)鍵細(xì)節(jié)上需要博弈。另外,從談判過程來看,相關(guān)主體的態(tài)度在不斷軟化。根據(jù)朱悅的分析,此次發(fā)難的策略性性質(zhì)較強(qiáng),即為了針對特定的條款爭取談判籌碼,并不是關(guān)于《人工智能法案》是否應(yīng)該通過的分歧。
“如果能夠達(dá)成妥協(xié),《人工智能法案》可能放棄對基礎(chǔ)模型的進(jìn)一步分級,通過細(xì)化透明項(xiàng)目、補(bǔ)強(qiáng)審計義務(wù)和關(guān)聯(lián)產(chǎn)品責(zé)任等方式做實(shí)透明義務(wù),放棄其他絕大部分的實(shí)質(zhì)要求?梢哉f是一種差強(qiáng)人意的方案!敝鞇偙硎尽
在后續(xù)的執(zhí)行過程中,《人工智能法案》也存在進(jìn)一步松綁的可能性。吳沈括向21記者指出,聯(lián)合文件立場更市場友好,因此各成員國在貫徹執(zhí)行《人工智能法案》時,可能有本地化松綁的動作。張欣對此的擔(dān)憂是,模型性能強(qiáng)大,更多未知風(fēng)險會與大模型涌現(xiàn)能力一同出現(xiàn)。而且在開發(fā)熱潮下,資本逐利可能帶來模型異化的風(fēng)險。以上種種都要求對基礎(chǔ)模型進(jìn)行更系統(tǒng)的硬法規(guī)制。
通過《人工智能法案》的機(jī)會之窗正在快速關(guān)閉,12月6日將是一個關(guān)鍵的時間點(diǎn)。
考慮到歐洲議會將在明年6月?lián)Q屆,今年12月6日的三方談判可以視作《人工智能法案》立法談判的收尾。歐洲媒體透露,越來越多的成員國認(rèn)為《人工智能法案》監(jiān)管過度。如果無法盡快找到解決方案,立法將面臨風(fēng)險。
朱悅表示,“《人工智能法案》之前的談判進(jìn)程確實(shí)太快了,理事會和其他各方內(nèi)部并沒有達(dá)到高度一致。之前達(dá)成的所有共識,都是一種脆弱而精細(xì)的平衡!倍@份脆弱、精細(xì)的平衡,接下來隨時都有可能打破。