在經(jīng)歷了去年AI大模型爆發(fā)式增長(zhǎng)后,AI技術(shù)迎來(lái)新一輪更新迭代。文生視頻模型Sora的出現(xiàn),開(kāi)啟了AI的新時(shí)代,也對(duì)企業(yè)的算力提出更高的要求。
浙江大學(xué)國(guó)際聯(lián)合商學(xué)院數(shù)字經(jīng)濟(jì)與金融創(chuàng)新研究中心聯(lián)席主任、研究員盤(pán)和林對(duì)《證券日?qǐng)?bào)》記者表示,Sora的出現(xiàn),讓國(guó)內(nèi)AI企業(yè)趨之若鶩,但實(shí)現(xiàn)Sora同等級(jí)應(yīng)用的難度并不小,對(duì)算力的需求會(huì)越來(lái)越大,所以各大AI企業(yè)應(yīng)從現(xiàn)實(shí)出發(fā),考慮應(yīng)用落地的難易度。
AI發(fā)展步伐加快
大模型驅(qū)動(dòng)的生成式AI具有極為廣闊的應(yīng)用前景,有望為眾多行業(yè)帶來(lái)強(qiáng)大的賦能效應(yīng)。隨著Sora的出現(xiàn),AI發(fā)展的步伐將進(jìn)一步加快。
“Sora在視頻處理領(lǐng)域有巨大潛力,為未來(lái)更復(fù)雜、更精細(xì)的視頻處理任務(wù)提供了可能性!卑阶稍(xún)CEO兼首席分析師張毅對(duì)《證券日?qǐng)?bào)》記者表示,Sora的文生視頻、圖生視頻等功能需要AI模型具備強(qiáng)大的泛化能力,這要求AI模型能夠?qū)W習(xí)和理解視頻內(nèi)容的內(nèi)在規(guī)律和結(jié)構(gòu),從而生成更加逼真、生動(dòng)的視頻內(nèi)容。這也將推動(dòng)AI模型在泛化能力方面進(jìn)一步發(fā)展。
“Sora的出現(xiàn)不僅為人工智能領(lǐng)域提供了新的可能性,也將促進(jìn)人工智能與其他技術(shù)的融合。例如,可以將Sora與虛擬現(xiàn)實(shí)(VR)、增強(qiáng)現(xiàn)實(shí)(AR)等技術(shù)結(jié)合,創(chuàng)建更加逼真的虛擬場(chǎng)景和交互體驗(yàn);也可以將Sora與深度學(xué)習(xí)、計(jì)算機(jī)視覺(jué)等技術(shù)結(jié)合,提高視頻處理和分析的準(zhǔn)確性和效率!睆堃氵M(jìn)一步表示。
天風(fēng)證券研報(bào)表示,隨著OpenAI發(fā)布Sora,文生視頻模型能力大幅提升,內(nèi)容創(chuàng)作工作流有望被顛覆,下一個(gè)億級(jí)用戶(hù)的互聯(lián)網(wǎng)平臺(tái)雛形已然出現(xiàn)。2000億美元的短視頻創(chuàng)作生態(tài)有望率先被顛覆,生成式AI在視頻創(chuàng)作和世界模型的大踏步進(jìn)步將實(shí)現(xiàn)對(duì)視頻、3D、游戲等下游應(yīng)用場(chǎng)景的滲透。
算力或成AI企業(yè)門(mén)檻
生成式AI模型的訓(xùn)練是一個(gè)計(jì)算極為密集的過(guò)程。這些模型包含數(shù)百萬(wàn)乃至數(shù)十億個(gè)參數(shù),需要在龐大的數(shù)據(jù)集上進(jìn)行多輪迭代訓(xùn)練。在訓(xùn)練過(guò)程中,涉及大量矩陣運(yùn)算和梯度計(jì)算等計(jì)算密集型操作。因此,為確保訓(xùn)練過(guò)程的順利進(jìn)行,必須依賴(lài)強(qiáng)大的計(jì)算資源來(lái)加速。
例如,ChatGPT的訓(xùn)練參數(shù)達(dá)到了1750億、訓(xùn)練數(shù)據(jù)45TB,每天生成45億字的內(nèi)容,支撐其算力至少需要上萬(wàn)顆英偉達(dá)的GPUA100,單次模型訓(xùn)練成本超過(guò)1200萬(wàn)美元。
而Sora的出現(xiàn)對(duì)企業(yè)的算力提出了更高的要求。近日,360創(chuàng)始人周鴻祎提到,Sora的技術(shù)路線如果被開(kāi)源,國(guó)內(nèi)將能很快趕上,但在追趕Sora時(shí),算力有可能成為門(mén)檻!癝ora能生成一分鐘的視頻,就意味著也能生成10分鐘、60分鐘的視頻,但不做更長(zhǎng)的視頻,或因算力和成本的限制!敝茗櫟t猜測(cè)。
銀河證券研報(bào)稱(chēng),據(jù)相關(guān)研究推測(cè),Sora參數(shù)規(guī)模估算在30B,如果按此參數(shù)測(cè)算,推演出Sora訓(xùn)練單次算力需求或可達(dá)到8.4×10^23Flops,相當(dāng)于GPT-3的2.7倍。伴隨Sora不斷迭代,訓(xùn)練數(shù)據(jù)集規(guī)模增大,未來(lái)算力需求將呈現(xiàn)指數(shù)級(jí)爆發(fā)式增長(zhǎng)。
盤(pán)和林也表示,鑒于Sora設(shè)立時(shí)間并不久,估計(jì)現(xiàn)階段參數(shù)量不大,但由于模型本身是一個(gè)不斷積累的過(guò)程,未來(lái)幾年參數(shù)量還會(huì)不斷增長(zhǎng),Sora需要的參數(shù)量更為龐大,對(duì)算力的需求勢(shì)必更大。
“算力或?qū)⒊蔀锳I企業(yè)的門(mén)檻與瓶頸,因?yàn)槟壳皣?guó)內(nèi)AI企業(yè)算力存在缺口,算力主要依賴(lài)于軟件生態(tài)的CUDA和硬件生態(tài)的GPU,所以國(guó)內(nèi)AI產(chǎn)業(yè)應(yīng)該努力解決算力的問(wèn)題,為AI應(yīng)用的研發(fā)提供強(qiáng)有力的基礎(chǔ)保障!北P(pán)和林進(jìn)一步表示。