3月5日,十四屆全國人大二次會議在北京人民大會堂開幕。國務院總理李強在政府工作報告中提出,大力推進現(xiàn)代化產(chǎn)業(yè)體系建設(shè),加快發(fā)展新質(zhì)生產(chǎn)力。深化大數(shù)據(jù)、人工智能等研發(fā)應用,開展“人工智能+”行動,打造具有國際競爭力的數(shù)字產(chǎn)業(yè)集群。
當前,以ChatGPT為代表的生成式人工智能異軍突起,掀起了通用人工智能技術(shù)引領(lǐng)與應用創(chuàng)新的發(fā)展浪潮,成為近十年來AI領(lǐng)域最具變革性的技術(shù),將給經(jīng)濟社會發(fā)展帶來巨大影響。全國人大代表,中國移動河南公司黨委書記、董事長、總經(jīng)理樓向平在接受《人民郵電》報記者采訪時表示,建議進一步加強人工智能可信治理,以更加負責任的方式,發(fā)展可信的、以人為本的人工智能,助推培育新質(zhì)生產(chǎn)力,扎實推動高質(zhì)量發(fā)展。
目前,我國人工智能核心產(chǎn)業(yè)規(guī)模不斷增長,人工智能廣泛應用于通信、金融、醫(yī)療、交通、生產(chǎn)制造等領(lǐng)域,已經(jīng)成為數(shù)字經(jīng)濟發(fā)展的重要驅(qū)動力。然而人工智能安全防護能力的不足和缺失,正在帶來多方面的風險和挑戰(zhàn),如知識產(chǎn)權(quán)侵權(quán)、隱私信息泄露、AI框架安全風險、AI算法攻擊、誤用濫用等。
樓向平認為,人工智能領(lǐng)域法律法規(guī)有待完善,同時缺乏統(tǒng)一的可信人工智能技術(shù)標準和評估體系,是當前存在的主要問題。諸如人工智能生成物的可版權(quán)性以及權(quán)利歸屬問題、訓練數(shù)據(jù)來源的合法性問題、隱私保護問題、人工智能侵權(quán)問題以及虛假生成內(nèi)容的責任認定等,在當前法律制度體系中存在一定立法空白。當前人工智能算法訓練和使用過程中面臨的各類數(shù)據(jù)安全、網(wǎng)絡(luò)安全、隱私泄露等問題,已經(jīng)成為制約人工智能健康發(fā)展的關(guān)鍵痛點,亟需形成一套可信人工智能技術(shù)標準和評估體系來加以規(guī)范。
針對以上問題,樓向平從多個層面提出了切實的建議。
首先是構(gòu)建系統(tǒng)化的人工智能法律法規(guī)體系。
一是積極推動人工智能領(lǐng)域立法進程。建議建立國家層面的立法研究工作組,充分收集學術(shù)界、產(chǎn)業(yè)界意見,汲取國外立法經(jīng)驗,兼顧約束不當行為和營造產(chǎn)業(yè)優(yōu)良發(fā)展環(huán)境的目的,積極開展人工智能專項立法研究,推動立法進程,促進人工智能產(chǎn)業(yè)健康發(fā)展。在新法律頒布前,可通過在現(xiàn)有《數(shù)據(jù)安全法》《著作權(quán)法》等法律規(guī)定基礎(chǔ)上制定行政法規(guī),或發(fā)布司法解釋、指導性案例等方式階段性緩解人工智能發(fā)展中面臨的法律問題。
二是明確生成式人工智能“事前-事中-事后”全鏈條監(jiān)管機制。參考歐盟經(jīng)驗,出臺人工智能的風險等級規(guī)范,針對不同類型、不同風險等級,施加不同的監(jiān)管措施。引入算法認證標識、監(jiān)管沙盒機制,指導和支持企業(yè)在監(jiān)管機構(gòu)的監(jiān)督下進行創(chuàng)新活動。
三是建立人工智能責任認定和追責機制。以技術(shù)的使用為主線,將經(jīng)濟利益與責任承擔深度結(jié)合,形成完整的鏈式責任分配機制,通過相應主體的分段分層可控,實現(xiàn)生成式人工智能發(fā)展的總體可控。
四是建立各利益相關(guān)方共同參與的系統(tǒng)化治理體系。政府在治理中發(fā)揮領(lǐng)導性作用,負責制定政策法規(guī)、設(shè)立專門機構(gòu)以執(zhí)行治理規(guī)定。行業(yè)協(xié)會制定技術(shù)倫理、行業(yè)倫理等行業(yè)規(guī)范,第三方智庫提供咨詢建議。社會公眾形成約定俗成的行為準則,并對相關(guān)主體進行聯(lián)合監(jiān)督。各方共同參與、協(xié)同發(fā)力,形成政府管理、社會監(jiān)督、行業(yè)自治、企業(yè)履責、用戶自律的體系化人工智能治理體系。
其次是構(gòu)建統(tǒng)一的可信人工智能技術(shù)標準和評估體系,加強內(nèi)生安全防御技術(shù)研究,實現(xiàn)人工智能“生成即安全”。
一是設(shè)立人工智能可信性指南,構(gòu)建可信人工智能標準框架。在訓練語料庫方面,構(gòu)建高質(zhì)量中文語料庫和數(shù)據(jù)集,更好支撐國內(nèi)人工智能模型訓練。在數(shù)據(jù)收集和使用方面,根據(jù)數(shù)據(jù)的價值和對利益的影響,明確人工智能訓練數(shù)據(jù)的分類分級保護標準,制定不同類型和不同級別數(shù)據(jù)的處理規(guī)則和安全保護措施。在數(shù)據(jù)存儲和傳輸方面,強化數(shù)據(jù)脫敏和數(shù)據(jù)加密要求,防止數(shù)據(jù)還原為原始信息,引入對稱或非對稱加密技術(shù)降低敏感信息泄露的風險,抵御未經(jīng)授權(quán)的訪問和數(shù)據(jù)泄露。在隱私保護方面,引入差分隱私、同態(tài)加密和安全多方計算等技術(shù),確保模型在隱私受限環(huán)境中的訓練和生成。
二是依托人工智能可信性指南,建立可信AI評估工作機制。打造國內(nèi)權(quán)威、公平科學的可信AI評測平臺,構(gòu)建自主可控的可信AI檢測工具體系。面向訓練數(shù)據(jù),打造訓練數(shù)據(jù)檢測工具,進行防投毒數(shù)據(jù)、侵權(quán)數(shù)據(jù)、有害數(shù)據(jù)的分析判斷,保證使用合法的數(shù)據(jù)進行訓練,防范與事實不符或有毒的內(nèi)容注入AI系統(tǒng)。面向生成內(nèi)容,打造內(nèi)容生成檢測工具,自動識別并報告通過人工智能技術(shù)生成的虛假、有害的內(nèi)容,確保內(nèi)容質(zhì)量,保護知識產(chǎn)權(quán)。構(gòu)建可信AI評測平臺與AI應用監(jiān)管工作的協(xié)同機制,依據(jù)可信AI評測平臺的檢測結(jié)果,對人工智能算法及應用進行評級,形成分級分類的商用準入許可或評估備案機制,構(gòu)建人工智能法律規(guī)范、評估機制、監(jiān)管工作協(xié)同共促的良好生態(tài)。
三是加強安全技術(shù)攻關(guān),構(gòu)建內(nèi)生安全底座。強化內(nèi)生安全防御技術(shù),賦能人工智能應用系統(tǒng),有效阻斷和控制應用系統(tǒng)硬件環(huán)境存在的漏洞、后門等內(nèi)生安全的共性問題,使內(nèi)生安全問題難以發(fā)展成為內(nèi)生安全事件。加強內(nèi)生安全技術(shù)攻關(guān),通過內(nèi)置安全模塊,提升自適應防護能力,使人工智能系統(tǒng)具備穩(wěn)健性和安全性,有能力應對惡意使用,防范惡意監(jiān)聽、病毒文件、隱私泄露、犯罪技術(shù)等違法程序或內(nèi)容的輸出。