首頁(yè)|必讀|視頻|專(zhuān)訪|運(yùn)營(yíng)|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁(yè) >> 頭條資訊 >> 正文

國(guó)外人工智能數(shù)據(jù)安全規(guī)制及對(duì)我國(guó)的啟示

2024年10月15日 08:54  中移智庫(kù)  

人工智能指的是計(jì)算代理的開(kāi)發(fā),這些代理可以執(zhí)行與人類(lèi)智能相關(guān)的任務(wù),包括語(yǔ)音識(shí)別、視覺(jué)感知和一般問(wèn)題解決,其發(fā)展高度依賴(lài)數(shù)據(jù)的流通和使用,例如在數(shù)據(jù)收集、數(shù)據(jù)準(zhǔn)備、模型開(kāi)發(fā)和部署等重要環(huán)節(jié)均需要利用數(shù)據(jù)進(jìn)行訓(xùn)練、測(cè)試以及評(píng)估等。伴隨自然語(yǔ)言處理、搜索引擎、智能生成應(yīng)用等人工智能技術(shù)和產(chǎn)品在日常生活中的深度融合與廣泛應(yīng)用,數(shù)據(jù)使用規(guī)模增長(zhǎng),流動(dòng)性增強(qiáng),暴露面增多,由此帶來(lái)的數(shù)據(jù)泄露、數(shù)據(jù)被盜用或數(shù)據(jù)投毒等安全風(fēng)險(xiǎn)值得進(jìn)一步關(guān)注。目前,美國(guó)、英國(guó)、歐盟、新加坡等國(guó)家和地區(qū)已通過(guò)發(fā)布國(guó)家戰(zhàn)略、行政命令、規(guī)范指南和研究報(bào)告等手段,對(duì)人工智能技術(shù)和產(chǎn)品在實(shí)際應(yīng)用中涉及的數(shù)據(jù)安全問(wèn)題進(jìn)行規(guī)制,以控制和減輕人工智能技術(shù)的應(yīng)用所帶來(lái)的數(shù)據(jù)安全風(fēng)險(xiǎn)。

本文旨在探討人工智能面臨的數(shù)據(jù)安全風(fēng)險(xiǎn),梳理和分析國(guó)外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀并有針對(duì)性地提出我國(guó)人工智能的發(fā)展路徑。

人工智能面臨的數(shù)據(jù)安全風(fēng)險(xiǎn)

技術(shù)脆弱性容易導(dǎo)致數(shù)據(jù)泄露或被盜用

人工智能技術(shù)自身的脆弱性和復(fù)雜性等特點(diǎn)容易造成數(shù)據(jù)泄露或被盜用。一方面,深度學(xué)習(xí)、大模型等人工智能技術(shù)本身仍處在發(fā)展階段,容易出現(xiàn)重要結(jié)構(gòu)丟失等問(wèn)題,引發(fā)數(shù)據(jù)泄露。例如,2023年12月,DeepMind的研究人員聯(lián)合美國(guó)華盛頓大學(xué)、康奈爾大學(xué)等高校研究人員利用分歧攻擊等方法,發(fā)現(xiàn)了ChatGPT的數(shù)據(jù)泄露漏洞,利用該漏洞可以提取出大約1GB的訓(xùn)練數(shù)據(jù)。另一方面,人工智能在開(kāi)發(fā)和應(yīng)用過(guò)程中需要大量接入應(yīng)用程序接口(Application Programming Interface,API),API自身的漏洞和安全隱患以及不同API之間不同的數(shù)據(jù)安全防護(hù)能力和要求進(jìn)一步提升了數(shù)據(jù)在收集、流動(dòng)和處理過(guò)程中的安全防護(hù)要求,也從側(cè)面加劇了數(shù)據(jù)泄露和被盜用的風(fēng)險(xiǎn)。

人工智能技術(shù)實(shí)際應(yīng)用過(guò)程中容易過(guò)度收集數(shù)據(jù)

人工智能技術(shù)從本質(zhì)上是一種通過(guò)數(shù)據(jù)驅(qū)動(dòng)的方法,因此允許人工智能系統(tǒng)在日常應(yīng)用場(chǎng)景中訪問(wèn)、收集和處理個(gè)人信息等數(shù)據(jù)是合理且不可避免的。然而,目前智能音箱、智能攝像頭、智能門(mén)鎖、智能網(wǎng)聯(lián)汽車(chē)等智能設(shè)備廣泛應(yīng)用于家庭、交通、辦公、娛樂(lè)等場(chǎng)所,容易出現(xiàn)相關(guān)設(shè)備在未經(jīng)授權(quán)或超出授權(quán)的情況下收集個(gè)人信息、超出業(yè)務(wù)功能實(shí)現(xiàn)所需數(shù)據(jù)范圍收集信息等問(wèn)題,可能違反個(gè)人信息保護(hù)相關(guān)法律對(duì)于數(shù)據(jù)收集合法、正當(dāng)、必要和最小化等要求,進(jìn)而引發(fā)識(shí)別和暴露數(shù)據(jù)主體行為的風(fēng)險(xiǎn),損害數(shù)據(jù)主體的相關(guān)權(quán)益。

算法模型透明度有待加強(qiáng)

在沒(méi)有用戶(hù)參與的情況下,通過(guò)自動(dòng)化手段使用事實(shí)數(shù)據(jù)或經(jīng)過(guò)推斷做出決策的過(guò)程被稱(chēng)為自動(dòng)化決策(Automated Decision Making,ADM),這是人工智能技術(shù)應(yīng)用的重要場(chǎng)景之一。例如,日常購(gòu)物、新聞和短視頻瀏覽、廣告推送等很多活動(dòng)都涉及到通過(guò)特定算法對(duì)用戶(hù)的日常行為、偏好、個(gè)人習(xí)慣、經(jīng)濟(jì)狀況等信息進(jìn)行收集、整合、處理分析、評(píng)估和判斷,對(duì)人們的日常生活乃至社會(huì)發(fā)展產(chǎn)生了很大的影響。根據(jù)大多數(shù)國(guó)家和地區(qū)的數(shù)據(jù)安全立法和建議,自動(dòng)化決策應(yīng)該是透明、可解釋、不帶有偏見(jiàn)和歧視的,但實(shí)際情況卻不容樂(lè)觀。伴隨著人工智能技術(shù)的不斷發(fā)展,特別是近十年來(lái)深度學(xué)習(xí)技術(shù)、大模型技術(shù)等普遍呈現(xiàn)“黑箱”特征,并且通過(guò)在網(wǎng)絡(luò)中使用復(fù)雜的非線性關(guān)聯(lián)和連接,算法的復(fù)雜化發(fā)展造成了目前自動(dòng)化決策容易缺乏透明性和可解釋性,進(jìn)一步增加了個(gè)人隱私泄露的風(fēng)險(xiǎn)和侵犯?jìng)(gè)人合法權(quán)益等問(wèn)題。

訓(xùn)練數(shù)據(jù)遭受攻擊后可能引起決策失誤

準(zhǔn)確性是人工智能系統(tǒng)的核心要求之一。人工智能算法做出的不準(zhǔn)確的決策可能會(huì)導(dǎo)致有害于用戶(hù)乃至社會(huì)的嚴(yán)重后果。例如,對(duì)交通情況的不準(zhǔn)確判斷可能導(dǎo)致交通擁堵甚至車(chē)禍發(fā)生;對(duì)健康狀況的不準(zhǔn)確判斷可能影響用戶(hù)的就診時(shí)機(jī)。人工智能的決策失誤往往是因?yàn)橛?xùn)練數(shù)據(jù)遭受了“投毒”“欺騙”等外部攻擊,例如數(shù)據(jù)投毒通過(guò)在訓(xùn)練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等破壞數(shù)據(jù)的完整性,進(jìn)而導(dǎo)致訓(xùn)練的算法模型決策出現(xiàn)偏差,造成相關(guān)數(shù)據(jù)被偽造或者被篡改,或者潛在攻擊者通過(guò)向計(jì)算模型注入無(wú)效數(shù)據(jù),利用潛在漏洞破壞計(jì)算結(jié)果或者引導(dǎo)輸出隱私信息等,潛在危害很大。

國(guó)外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀

美國(guó):多方參與,協(xié)同推進(jìn)人工智能數(shù)據(jù)安全落地

美國(guó)白宮、聯(lián)邦行政部門(mén)、科研機(jī)構(gòu)等多方主體通過(guò)發(fā)布行政命令、實(shí)踐指南和研究報(bào)告等方式嘗試給出解決人工智能數(shù)據(jù)安全問(wèn)題的路徑,以維護(hù)其在人工智能領(lǐng)域的全球領(lǐng)先地位。

2023年10月30日,美國(guó)總統(tǒng)拜登簽署頒布了《關(guān)于安全、可靠、值得信賴(lài)地開(kāi)發(fā)和使用人工智能的行政命令》,該命令明確了美國(guó)政府對(duì)待人工智能的政策法制框架,涉及人工智能技術(shù)的技術(shù)研發(fā)、安全保障、全球合作等關(guān)鍵議題。該命令專(zhuān)門(mén)設(shè)置了“保護(hù)美國(guó)民眾的隱私”章節(jié),詳細(xì)闡述了白宮應(yīng)對(duì)人工智能數(shù)據(jù)安全問(wèn)題的3條措施。一是針對(duì)人工智能技術(shù)在實(shí)際應(yīng)用中對(duì)個(gè)人隱私的威脅,要支持并加快加密技術(shù)等隱私保護(hù)技術(shù)的研發(fā)和資金投入,保護(hù)用于人工智能的訓(xùn)練數(shù)據(jù)以及普通用戶(hù)的個(gè)人信息的安全。二是推動(dòng)開(kāi)展機(jī)構(gòu)評(píng)估工作,評(píng)估各機(jī)構(gòu)如何收集和使用商業(yè)可用信息,包括從數(shù)據(jù)代理那里獲得的信息,并加強(qiáng)對(duì)聯(lián)邦機(jī)構(gòu)的指導(dǎo)。三是制定實(shí)施指導(dǎo)方針,以評(píng)估人工智能技術(shù)中使用到的隱私保護(hù)技術(shù)的有效性。

在此基礎(chǔ)上,2024年4月,美國(guó)國(guó)家安全局發(fā)布了《安全部署人工智能系統(tǒng):部署安全、彈性人工智能系統(tǒng)的最佳實(shí)踐》,該實(shí)踐建議采取強(qiáng)密碼策略、內(nèi)部網(wǎng)絡(luò)分區(qū)、訪問(wèn)控制和加密。另外,還可以使用數(shù)據(jù)偽裝等方法來(lái)混淆數(shù)據(jù),使得攻擊者無(wú)法對(duì)數(shù)據(jù)進(jìn)行分析從而防止針對(duì)人工智能系統(tǒng)中的數(shù)據(jù)進(jìn)行外部或內(nèi)部攻擊。

此外,美國(guó)斯坦福大學(xué)也在同一時(shí)期發(fā)布了《反思人工智能時(shí)代的隱私問(wèn)題——針對(duì)“以數(shù)據(jù)為中心”世界的政策建議》白皮書(shū),該白皮書(shū)談到了3項(xiàng)人工智能數(shù)據(jù)安全保護(hù)措施。一是進(jìn)一步調(diào)整數(shù)據(jù)收集規(guī)則,將數(shù)據(jù)收集的“默認(rèn)狀態(tài)”從“統(tǒng)一收集”改變?yōu)椤安煌馐占保浞謱?shí)現(xiàn)數(shù)據(jù)收集最小化。二是持續(xù)關(guān)注人工智能下數(shù)據(jù)全生命周期的安全,增強(qiáng)數(shù)據(jù)處理活動(dòng)的透明度,確保數(shù)據(jù)從收集、存儲(chǔ)到加工、處理等各個(gè)環(huán)節(jié)的安全。三是優(yōu)化個(gè)人信息的管理模式,持續(xù)更新技術(shù)保護(hù)手段并建立新的數(shù)據(jù)治理機(jī)制。

英國(guó):包容審慎,溫和規(guī)范人工智能發(fā)展與數(shù)據(jù)流通共享

在人工智能數(shù)據(jù)安全規(guī)制方面,英國(guó)政府一方面提出“基于原則”的人工智能治理方法,兼顧“監(jiān)管”與“創(chuàng)新”,為行業(yè)提供了具備確定性、一致性的監(jiān)管方法。另一方面不斷促進(jìn)數(shù)據(jù)流動(dòng)與共享,持續(xù)賦能人工智能健康發(fā)展。

在治理方面,2023年3月,英國(guó)政府發(fā)布了《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》。該方法明確提出,人工智能在使用過(guò)程中存在隱私和代理風(fēng)險(xiǎn),具體來(lái)說(shuō)就是家中連接的設(shè)備可能會(huì)不斷收集數(shù)據(jù),包括對(duì)話(huà),這可能會(huì)對(duì)個(gè)人的家庭生活進(jìn)行近乎完整的描述。訪問(wèn)這些數(shù)據(jù)的各方主體越多,隱私風(fēng)險(xiǎn)就越大。對(duì)此,可以通過(guò)利用“適當(dāng)?shù)耐该鞫群涂山忉屝浴痹瓌t來(lái)加強(qiáng)用戶(hù)和監(jiān)管人員對(duì)于人工智能系統(tǒng)實(shí)際運(yùn)行情況的了解,從而解決相應(yīng)的隱私風(fēng)險(xiǎn)。

在促進(jìn)數(shù)據(jù)流通共享方面,2023年12月,英國(guó)《數(shù)據(jù)保護(hù)和數(shù)字信息法案》在上議院進(jìn)行了二讀,該法案提到,要減少數(shù)據(jù)流動(dòng)的障礙,并與提供足夠數(shù)據(jù)保護(hù)能力水平的國(guó)家(如美國(guó)、阿聯(lián)酋等)建立“數(shù)據(jù)橋梁”,促進(jìn)數(shù)據(jù)流通,從而從側(cè)面間接推動(dòng)人工智能的發(fā)展。

在技術(shù)方面,2022年9月7日,英國(guó)信息專(zhuān)員辦公室發(fā)布了《匿名化、假名化及隱私增強(qiáng)技術(shù)指南草案》,介紹了隱私增強(qiáng)技術(shù)的基本概念、傳統(tǒng)隱私增強(qiáng)技術(shù)和新型隱私增強(qiáng)技術(shù)的類(lèi)型定義和應(yīng)用場(chǎng)景,并通過(guò)3項(xiàng)具體場(chǎng)景給出了隱私增強(qiáng)技術(shù)的應(yīng)用指南。

歐盟:嚴(yán)格規(guī)制,有效防范人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)

歐盟在人工智能數(shù)據(jù)安全規(guī)制方面保持了一貫的強(qiáng)勢(shì)姿態(tài),通過(guò)禁止或限制高風(fēng)險(xiǎn)應(yīng)用來(lái)監(jiān)管人工智能,從而解決或緩解正在面臨的數(shù)據(jù)安全風(fēng)險(xiǎn)。2024年5月,歐洲理事會(huì)正式批準(zhǔn)《人工智能法案》。作為專(zhuān)門(mén)針對(duì)人工智能的綜合性立法,該法案明確提出了3項(xiàng)保護(hù)人權(quán)和隱私的具體措施。一是透明度和可解釋性。要求人工智能系統(tǒng)的開(kāi)發(fā)者提供關(guān)于算法工作原理的足夠信息,確保用戶(hù)和系統(tǒng)之間的互動(dòng)是透明的。這一舉措有助于用戶(hù)理解系統(tǒng)的決策過(guò)程,從而避免因?yàn)椴豢深A(yù)測(cè)的行為而侵犯人權(quán)。二是數(shù)據(jù)保護(hù)。強(qiáng)化了數(shù)據(jù)保護(hù)要求,包括對(duì)個(gè)人數(shù)據(jù)的收集、處理和使用進(jìn)行嚴(yán)格監(jiān)管。開(kāi)發(fā)者必須遵循數(shù)據(jù)最小化原則,只收集完成任務(wù)所必需的數(shù)據(jù),并采取措施保護(hù)數(shù)據(jù)的機(jī)密性、完整性和可用性。三是禁止濫用。明確禁止利用人工智能系統(tǒng)侵犯人權(quán)和隱私的行為,如歧視、侵犯隱私、操縱個(gè)人數(shù)據(jù)等。違反者將面臨嚴(yán)厲的法律制裁。

除此之外,《通用數(shù)據(jù)保護(hù)條例》《算法問(wèn)責(zé)及透明度監(jiān)管框架》以及《數(shù)字服務(wù)法案》等已經(jīng)頒布和生效的法律規(guī)范也不同程度涉及了算法解釋權(quán)的設(shè)立、算法透明度和可解釋性的監(jiān)管以及算法透明審計(jì)等內(nèi)容,進(jìn)一步提升了人工智能數(shù)據(jù)安全。

新加坡:靈活開(kāi)放,明確人工智能數(shù)據(jù)安全原則和方向

新加坡政府對(duì)人工智能發(fā)展的監(jiān)管始終秉持開(kāi)放和學(xué)習(xí)的態(tài)度。2018年,新加坡金融管理局發(fā)布了《促進(jìn)新加坡金融業(yè)公平、道德、可問(wèn)責(zé)和透明地使用人工智能和數(shù)據(jù)分析的原則》,對(duì)金融機(jī)構(gòu)合理、準(zhǔn)確使用人工智能和數(shù)據(jù)分析工具并建立有效的問(wèn)責(zé)機(jī)制等進(jìn)行指引。

2023年12月,新加坡發(fā)布了《國(guó)家人工智能戰(zhàn)略2.0》,明確提出在合成數(shù)據(jù)生成、數(shù)據(jù)注釋、聯(lián)邦學(xué)習(xí)和同態(tài)加密等領(lǐng)域加強(qiáng)隱私增強(qiáng)技術(shù)的研發(fā),并且明確將為企業(yè)和個(gè)人提供安全工具包,以應(yīng)對(duì)人工智能安全風(fēng)險(xiǎn)。

2024年3月,新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)發(fā)布了《關(guān)于在人工智能推薦和決策系統(tǒng)中使用個(gè)人數(shù)據(jù)的咨詢(xún)指南》。該指南明確了人工智能系統(tǒng)在數(shù)據(jù)收集和準(zhǔn)備、模型開(kāi)發(fā)和部署等環(huán)節(jié)對(duì)個(gè)人信息的保護(hù)要求,明確數(shù)據(jù)收集最小化、數(shù)據(jù)匿名化等注意事項(xiàng),同時(shí)給予了相關(guān)服務(wù)提供商最佳案例指導(dǎo),為實(shí)踐工作有序開(kāi)展提供參考。

對(duì)我國(guó)的啟示及借鑒

為充分解決人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),促進(jìn)人工智能技術(shù)健康發(fā)展,要從強(qiáng)化頂層設(shè)計(jì)、強(qiáng)化安全監(jiān)管、加快技術(shù)創(chuàng)新等方面著手,構(gòu)建全方位、多元化的解決方案。

強(qiáng)化頂層設(shè)計(jì)

全面的頂層設(shè)計(jì)是支撐人工智能數(shù)據(jù)安全的基礎(chǔ)。目前,國(guó)內(nèi)針對(duì)算法和生成式人工智能已經(jīng)出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等法律規(guī)范,明確提出了人工智能服務(wù)提供者應(yīng)當(dāng)建立數(shù)據(jù)安全和個(gè)人信息保護(hù)管理制度并采取技術(shù)措施,實(shí)施算法備案、分類(lèi)分級(jí)管理等。面對(duì)人工智能數(shù)據(jù)安全監(jiān)管的頂層設(shè)計(jì)已初步構(gòu)建,但與美歐等發(fā)達(dá)國(guó)家和地區(qū)覆蓋多行業(yè)多領(lǐng)域的監(jiān)管策略相比,仍存在重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域頂層設(shè)計(jì)缺失等問(wèn)題。為進(jìn)一步強(qiáng)化人工智能數(shù)據(jù)安全頂層設(shè)計(jì),建議盡快制定醫(yī)療、教育、通信、新能源、智能網(wǎng)聯(lián)汽車(chē)等人工智能技術(shù)普遍應(yīng)用的重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域人工智能數(shù)據(jù)安全規(guī)范指引,合理擴(kuò)大監(jiān)管范圍,進(jìn)一步明確相關(guān)行業(yè)主體在人工智能數(shù)據(jù)安全方面的責(zé)任和義務(wù),規(guī)范技術(shù)應(yīng)用和管理措施,確定違規(guī)罰則,確保相關(guān)行業(yè)人工智能數(shù)據(jù)安全。

加強(qiáng)實(shí)踐指引

明晰的實(shí)踐指引是確保人工智能數(shù)據(jù)安全的關(guān)鍵核心。近年來(lái),歐美等發(fā)達(dá)國(guó)家和地區(qū)均發(fā)布了人工智能的實(shí)踐或?qū)嵺`指引,用以引導(dǎo)行業(yè)企業(yè)合理處理人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),提升安全能力。目前為止,國(guó)內(nèi)針對(duì)人工智能數(shù)據(jù)安全的實(shí)踐指引較為缺乏,企業(yè)經(jīng)常面臨“如何做”“做到什么程度”的困惑。為解決上述問(wèn)題,一方面,建議重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域適時(shí)發(fā)布人工智能數(shù)據(jù)安全行業(yè)實(shí)踐指引,明確本行業(yè)本領(lǐng)域人工智能數(shù)據(jù)安全防護(hù)重點(diǎn)難點(diǎn),指導(dǎo)企業(yè)建立健全人工智能數(shù)據(jù)安全技術(shù)和管理體系,幫助企業(yè)快速有效處理數(shù)據(jù)安全風(fēng)險(xiǎn)。另一方面,建議適時(shí)開(kāi)展行業(yè)人工智能數(shù)據(jù)安全典型實(shí)踐遴選工作,充分挖掘典型經(jīng)驗(yàn)做法,樹(shù)立安全防護(hù)標(biāo)桿,有效促進(jìn)相關(guān)從業(yè)人員切實(shí)提升數(shù)據(jù)安全防護(hù)能力。

加快技術(shù)創(chuàng)新

有效的安全技術(shù)手段是實(shí)現(xiàn)人工智能數(shù)據(jù)安全的重要保障。英國(guó)、新加坡、歐盟等國(guó)家和地區(qū)均提出了加強(qiáng)安全多方計(jì)算、聯(lián)邦學(xué)習(xí)等隱私增強(qiáng)技術(shù)的研究和應(yīng)用,以應(yīng)對(duì)人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),加強(qiáng)數(shù)據(jù)安全防護(hù)。目前國(guó)內(nèi)在類(lèi)似技術(shù)的研究和應(yīng)用方面仍處在起步階段,相關(guān)技術(shù)發(fā)展時(shí)間較短,與國(guó)外相比仍有一定差距。因此,應(yīng)當(dāng)盡快推動(dòng)隱私計(jì)算、合成數(shù)據(jù)生成、數(shù)據(jù)質(zhì)量管理等與人工智能數(shù)據(jù)安全緊密相關(guān)的前沿技術(shù)穩(wěn)定發(fā)展,明晰技術(shù)應(yīng)用范式,進(jìn)一步優(yōu)化技術(shù)架構(gòu),提升技術(shù)性能和效率。推動(dòng)相關(guān)技術(shù)在重點(diǎn)行業(yè)應(yīng)用,引導(dǎo)相關(guān)技術(shù)落地實(shí)踐。另外,應(yīng)當(dāng)進(jìn)一步探索和開(kāi)發(fā)人工智能數(shù)據(jù)安全保障框架,明確數(shù)據(jù)安全保障機(jī)制、流程和達(dá)到的效果,進(jìn)一步指導(dǎo)安全技術(shù)應(yīng)用實(shí)施。

總結(jié)與展望

人工智能作為新興領(lǐng)域正處在快速發(fā)展時(shí)期,對(duì)于社會(huì)生活產(chǎn)生了顯著影響。例如,ChatGPT、文心一言等生成式人工智能不僅深度賦能政務(wù)、金融、交通、購(gòu)物等生活的方方面面,成為日常生活的得力助手,并且有力推動(dòng)了數(shù)據(jù)、算力、算網(wǎng)等深度融合,賦能新質(zhì)生產(chǎn)力的發(fā)展。然而,人工智能技術(shù)的廣泛應(yīng)用所帶來(lái)的數(shù)據(jù)泄露、被盜用、被篡改等問(wèn)題也日益嚴(yán)重。我國(guó)作為人工智能和數(shù)據(jù)安全領(lǐng)域的先行國(guó)家,要始終秉持既嚴(yán)肅認(rèn)真又審慎包容的態(tài)度,發(fā)揮相關(guān)優(yōu)勢(shì),在頂層設(shè)計(jì)、實(shí)踐指引、技術(shù)創(chuàng)新等方面不斷發(fā)力,有效提升人工智能數(shù)據(jù)安全保護(hù)能力,更好推動(dòng)社會(huì)高質(zhì)量發(fā)展。

編 輯:路金娣
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來(lái)源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過(guò)授權(quán)可以轉(zhuǎn)載,請(qǐng)必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來(lái)源。
2.凡注明“來(lái)源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話(huà)為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中國(guó)電信邵廣祿:面向AI大模型的智算集群及網(wǎng)絡(luò)的實(shí)踐和展望
精彩專(zhuān)題
2024中國(guó)算力大會(huì)
2024年國(guó)際信息通信展
中國(guó)信科亮相2024年國(guó)際信息通信展
第25屆中國(guó)國(guó)際光電博覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱(chēng): 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書(shū)面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像