首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 人工智能 >> 正文

OpenAI:超智能AI或在這個十年出現(xiàn),將加大資源應對

2023年7月6日 09:04  新浪科技  

北京時間7月6日早間消息,當?shù)貢r間周三,ChatGPT的開發(fā)者OpenAI表示計劃投入更多資源并成立新的研究團隊,研究如何確保AI對人類的安全性,最終實現(xiàn)用AI來監(jiān)督AI。

OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇茨凱弗(Ilya Sutskever)和AI對齊負責人簡·萊克(Jan Leike)在官方博客中表示:“超級智能的巨大能力可能導致人類失去力量甚至滅絕。目前,我們還沒有解決方案來操縱或控制一個可能的超智能AI,并防止其變成無賴!

這篇博文預測,超智能AI,即相比于人類更智能的系統(tǒng),可能會在未來10年中出現(xiàn)。人類需要比目前更強大的技術來控制超智能AI,因此需要在“AI對齊研究”方面取得突破,確保人AI對人類持續(xù)有益。AI對齊是AI控制中的主要問題,即要求AI的目標和人類的價值觀與意圖保持一致。

作者寫道,OpenAI將在未來4年內,將算力的20%專門用于解決這方面問題。此外,該公司將組建新的“超對齊”團隊來組織這方面的工作。

該團隊的目標是開發(fā)達到“人類水平”,由AI驅動的對齊研究員,隨后通過龐大的算力推動其發(fā)展。OpenAI表示,這意味著將使用人工反饋來訓練AI系統(tǒng),通過訓練AI系統(tǒng)來協(xié)助人工評估,最終訓練AI系統(tǒng)來進行實際的對齊研究。

不過,人工智能安全的倡導者康納·萊希(Connor Leahy)表示,OpenAI的計劃存在根本性缺陷,因為最初的人類水平AI可能會失控并造成嚴重破壞,而這將迫使研究者去解決AI安全問題。他在接受采訪時表示:“在構建人類水平的智能之前,必須先解決對齊問題,否則默認情況下你無法控制它。我個人認為這不是個特別好的、安全的計劃!

AI的潛在危險一直是AI研究員和公眾最關心的問題。今年4月,一群AI行業(yè)領袖和專家簽署公開信,呼吁暫停6個月開發(fā)比OpenAI的GPT-4更強大的系統(tǒng),原因是對社會存在潛在風險。益普索今年5月的調查發(fā)現(xiàn),超過2/3的美國人擔心AI可能產生的負面影響,61%的人認為AI可能威脅人類文明。

編 輯:章芳
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構成任何投資及應用建議。如網(wǎng)站內容涉及作品版權和其它問題,請在30日內與本網(wǎng)聯(lián)系,我們將在第一時間刪除內容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
相關新聞              
 
人物
工信部張云明:大部分國家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動 共筑信息保障堤壩
2023MWC上海世界移動通信大會
中國5G商用四周年
2023年中國國際信息通信展覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像