在當(dāng)前AI大爆發(fā)的時(shí)代,人們對(duì)于大語言模型(LLM)的需求及應(yīng)用日益增長。大語言模型通過深度學(xué)習(xí)和自然語言處理技術(shù),能夠理解和生成人類語言,不僅能夠回答各種問題,提供準(zhǔn)確的信息,還能生成文本、創(chuàng)作故事、撰寫文章等。無論是在學(xué)術(shù)研究、商業(yè)決策還是日常生活中,它們都成為了人們不可或缺的助手。
然而,大模型的復(fù)雜性和龐大的計(jì)算資源需求也是一項(xiàng)挑戰(zhàn),如何快速、高效地獲取部署這些大模型成為許多企業(yè)和開發(fā)者面臨的難題。
為了滿足客戶對(duì)大模型的需求,UCloud鏡像市場近期上線了Alpaca-LoRA、ChatGLM、T5以及MiniGPT-4的四款大模型。提供快捷部署能力,簡單四步,客戶即可搭建大語言模型的微調(diào)或者推理的環(huán)境。
1、登錄UCloud控制臺(tái)
(https://console.ucloud.cn/uhost/uhost/create);
2、選擇GPU云主機(jī),各模型的推薦機(jī)型及配置參考文檔
(https://docs.ucloud.cn/gpu/practice/Alpaca-LoRA);
3、在鏡像市場選擇鏡像,例如Alpaca-LoRA,搜索Alpaca-LoRA即可;
4、立即創(chuàng)建,開機(jī)執(zhí)行進(jìn)程啟動(dòng)命令即可(參考登錄頁面提示,如下圖)
客戶只需要為選擇的GPU資源付費(fèi),鏡像市場的這四款開源大模型鏡像,均免費(fèi)提供使用。
目前提供了以下四種模型:
Alpaca-LoRA-7B
Alpaca-LoRA是使用Lora(Low-rank Adaptation)技術(shù)在Meta的LLaMA 7B模型上微調(diào),只需要訓(xùn)練很小一部分參數(shù)就可以獲得媲美 Standford Alpaca 模型的效果,可以認(rèn)為是ChatGPT輕量級(jí)的開源版本。對(duì)于想要訓(xùn)練自己的類ChatGPT模型(包括中文版類ChatGPT)但又沒有頂級(jí)算力資源配置的研究者來說,是最優(yōu)選擇之一。
目前UCloud預(yù)裝的鏡像提供微調(diào)和推理兩種便捷使用方式。以推理為例,展示效果如下:
ChatGLM-6B
ChatGLM-6B是清華大學(xué)發(fā)布的一個(gè)開源模型。通過對(duì)大量數(shù)據(jù)進(jìn)行訓(xùn)練,ChatGLM學(xué)習(xí)到了豐富的語言知識(shí)和上下文理解能力。它可以理解對(duì)話的上下文,對(duì)問題進(jìn)行準(zhǔn)確回答,并能夠生成連貫、有邏輯的對(duì)話內(nèi)容。相較于其他國外的模型,ChatGLM在處理中文任務(wù)方面表現(xiàn)尤為出色,可廣泛應(yīng)用于中文客服對(duì)話、智能助手、中文問答系統(tǒng)等各種場景。它能夠幫助用戶解決問題、提供準(zhǔn)確的中文回答,并能夠適應(yīng)不同領(lǐng)域和語境的需求。
例如輸入:“請(qǐng)做一個(gè)為期三天的行程規(guī)劃,目的地:上海,目的:旅游,需包含旅游項(xiàng)目和飲食”,輸出:
ChatGLM-6B中文模型也具備可定制性,可以通過微調(diào)和參數(shù)調(diào)整來適應(yīng)特定的中文任務(wù)和個(gè)性化要求。這使得中文模型在滿足企業(yè)、開發(fā)者和研究者特定需求方面更加靈活和實(shí)用。
T5
T5(Text-To-Text Transfer Transformer)是一種基于Transformer架構(gòu)的多用途語言模型。T5模型具備強(qiáng)大的文本生成能力,它可以根據(jù)用戶提供的提示或問題,生成高質(zhì)量的文章、摘要、問答等內(nèi)容。無論是撰寫博客文章、社交媒體內(nèi)容還是其他類型的文本創(chuàng)作,T5都能夠節(jié)省不少的時(shí)間和精力,快速生成令人滿意的文字。
其次,T5模型在多語言翻譯方面表現(xiàn)出色,它能夠?qū)⑽恼聝?nèi)容翻譯成多種語言,無論用戶是想擴(kuò)大業(yè)務(wù)范圍、吸引國際讀者還是進(jìn)入新的市場,T5都能提供高質(zhì)量的翻譯服務(wù),使內(nèi)容更具多樣性和國際化。
此外,T5模型還具備優(yōu)秀的摘要生成能力。它可以自動(dòng)提取文章的核心要點(diǎn),并生成簡潔而準(zhǔn)確的摘要。這對(duì)于需要在有限篇幅內(nèi)傳達(dá)信息或吸引讀者注意力的場景非常有用,讓內(nèi)容更具吸引力和易讀性。最重要的是,T5模型具備靈活性和可定制性。它可以通過微調(diào)和調(diào)整參數(shù),適應(yīng)各種應(yīng)用場景和個(gè)性化需求,例如構(gòu)建特定行業(yè)智能對(duì)話系統(tǒng)等。
UCloud鏡像市場分別提供了T5-Base,T5-3B兩個(gè)模型的鏡像。
MiniGPT-4
MiniGPT-4是基于GPT-3.5的小型語言模型,在多個(gè)領(lǐng)域展現(xiàn)了其強(qiáng)大的潛力。作為多模態(tài)模型,MiniGPT-4能夠理解和處理不同模態(tài)之間的關(guān)聯(lián)性,從而為更豐富的創(chuàng)作和應(yīng)用提供支持。通過將圖像、文本和音頻等多種形式的數(shù)據(jù)結(jié)合在一起,MiniGPT-4可以生成與輸入數(shù)據(jù)相關(guān)的多模態(tài)輸出。無論是創(chuàng)意寫作、故事構(gòu)思、詩歌創(chuàng)作還是市場營銷文案,MiniGPT-4都能為您提供靈感和支持。
例如,在給定一張圖片的情況下,您可以使用MiniGPT-4來生成與該圖片相關(guān)的描述文本,或者創(chuàng)建一個(gè)故事情節(jié),讓圖像栩栩如生地躍然紙上。它可以提供更加豐富和多樣化的創(chuàng)作體驗(yàn),同時(shí)為跨模態(tài)任務(wù)和項(xiàng)目提供了更廣闊的應(yīng)用領(lǐng)域。
寫在最后
云計(jì)算的核心即為通過云端提供海量算力,從這個(gè)角度來說,采用云基礎(chǔ)設(shè)施就有了跑通AI算力、AI大模型和生成式AI應(yīng)用的入場券。UCloud作為國內(nèi)領(lǐng)先的云計(jì)算廠商,也成為了大模型入口處的鋪路人。
以大模型訓(xùn)練所需要的算力資源來看,UCloud在國家“東數(shù)西算”樞紐自建的烏蘭察布數(shù)據(jù)中心提供了GPU高性能計(jì)算產(chǎn)品,上線了NVIDIA的V100S等多款顯卡,A800也即將上線,滿足不同用戶在多場景下的GPU加速需求。同時(shí),基于IB網(wǎng)絡(luò)環(huán)境的多節(jié)點(diǎn)高性能計(jì)算集群,更好匹配超高計(jì)算性能,實(shí)現(xiàn)多節(jié)點(diǎn)間無損通信,滿足用戶多節(jié)點(diǎn)并行計(jì)算的場景需求。
除此之外,UCloud烏蘭察布數(shù)據(jù)中心還部署了UCloud新一代歸檔存儲(chǔ)產(chǎn)品US3、提供海量訓(xùn)練數(shù)據(jù)存儲(chǔ)服務(wù);采用WEB應(yīng)用防火墻UWAF、DDoS攻擊防護(hù) UDDoS、主機(jī)入侵檢測 UHIDS等一系列安全防護(hù)產(chǎn)品,實(shí)現(xiàn)全方位的安全穩(wěn)定保障;烏蘭察布低廉的電力供應(yīng),也為AI訓(xùn)練期間的算力資源,提供了高性價(jià)比的選擇。
UCloud用云計(jì)算全棧技術(shù)能力和算力基礎(chǔ)設(shè)施工程能力,致力于為AI客戶提供高質(zhì)量、高性能的底層算力解決方案。本次鏡像市場的更新,與UCloud算力服務(wù)結(jié)合,旨在讓每一位客戶都能更便捷部署和使用大模型,為廣大創(chuàng)業(yè)者的創(chuàng)新之路注入強(qiáng)大的動(dòng)力,一起迎接大模型時(shí)代的挑戰(zhàn),共同創(chuàng)造更加輝煌的未來!