飛象網(wǎng)訊 3月14日,零一萬(wàn)物正式發(fā)布 Yi 大模型 API 開(kāi)放平臺(tái),為開(kāi)發(fā)者提供通用 Chat、200k 超長(zhǎng)上下文、多模態(tài)交互等模型。
同時(shí),零一萬(wàn)物表示,近期零一萬(wàn)物將為開(kāi)發(fā)者提供更多更強(qiáng)模型和 AI 開(kāi)發(fā)框架。主要亮點(diǎn)包括:
• 推出一系列的模型 API,覆蓋更大的參數(shù)量、更強(qiáng)的多模態(tài),更專業(yè)的代碼/數(shù)學(xué)推理模型等。
• 突破更長(zhǎng)的上下文,目標(biāo) 100萬(wàn) tokens;支持更快的推理速度,顯著降低推理成本。
• 基于超長(zhǎng)上下文能力,構(gòu)建向量數(shù)據(jù)庫(kù)、RAG、Agent 架構(gòu)在內(nèi)的全新開(kāi)發(fā)者 AI 框架。旨在提供更加豐富和靈活的開(kāi)發(fā)工具,以適應(yīng)多樣化的應(yīng)用場(chǎng)景。
Yi 系列模型 API
此次 API 開(kāi)放平臺(tái)提供以下新版模型:
• ✅ Yi-34B-Chat-0205:支持通用聊天、問(wèn)答、對(duì)話、寫(xiě)作、翻譯等功能。
• ✅ Yi-34B-Chat-200K:200K 上下文,多文檔閱讀理解、超長(zhǎng)知識(shí)庫(kù)構(gòu)建小能手。
• ✅ Yi-VL-Plus: 多模態(tài)模型,支持文本、視覺(jué)多模態(tài)輸入,中文圖表體驗(yàn)超過(guò) GPT-4V。
API 相關(guān)亮點(diǎn)介紹
• 200k 模型支持輸入 30 萬(wàn)漢字
○ 加速大模型應(yīng)用進(jìn)入“長(zhǎng)文本時(shí)代”。200K 支持處理約 30 萬(wàn)個(gè)中英文字符,可以輕松處理整本《哈利•波特與魔法石》小說(shuō)。適合用于多篇文檔內(nèi)容理解、海量數(shù)據(jù)分析挖掘和跨領(lǐng)域知識(shí)融合等,為各行各業(yè)提供了極大的便利。例如,金融分析師可以用它快速閱讀報(bào)告并預(yù)測(cè)市場(chǎng)趨勢(shì)、律師可以用它精準(zhǔn)解讀法律條文、科研人員可以用它高效提取論文要點(diǎn)、文學(xué)愛(ài)好者可以用它快速掌握作品精髓等,應(yīng)用場(chǎng)景非常廣泛。
○ 大海撈針評(píng)測(cè)升至99.8%。“大海撈針”測(cè)試的設(shè)計(jì)是:將一個(gè)目標(biāo)句子(針)放進(jìn)一個(gè)隨機(jī)文檔語(yǔ)料庫(kù)(大海),然后提出一個(gè)只能使用“針”(目標(biāo)句子)中的信息才能回答的問(wèn)題來(lái)測(cè)試模型的回憶能力。在“大海撈針”測(cè)試中,Yi-34B-Chat-200K的性能提高了10.5%,從89.3%提升到99.8%。
• Yi-VL-Plus 多模態(tài)模型
零一萬(wàn)物開(kāi)發(fā)的多模態(tài)模型 Yi-VL-Plus,可支持文本、視覺(jué)多模態(tài)輸入,面向?qū)嶋H應(yīng)用場(chǎng)景大幅增強(qiáng):
○ 增強(qiáng)Charts, Table, Inforgraphics, Screenshot 識(shí)別能力,支持復(fù)雜圖表理解、信息提取、問(wèn)答以及推理。中文圖表體驗(yàn)超過(guò)GPT4V。
○ 在 Yi-VL 基礎(chǔ)上進(jìn)一步提高了圖片分辨率,模型支持 1024*1024 分辨率輸入,顯著提高生產(chǎn)力場(chǎng)景中的文字、數(shù)字 OCR 的準(zhǔn)確性。
○ 保持了 LLM 通用語(yǔ)言、知識(shí)、推理、指令跟隨等能力。
圖說(shuō):在中文圖表識(shí)別功能評(píng)測(cè)中,Yi-VL-Plus模型能準(zhǔn)確識(shí)別圖表對(duì)應(yīng)數(shù)據(jù),而 GPT-4V則識(shí)別錯(cuò)3處數(shù)據(jù)。
👆圖說(shuō):Yi-VL-Plus模型在一些中文圖表理解場(chǎng)景,比GPT-4V準(zhǔn)確率更高
• 推理速度快
○ 為了提升 API 性能,我們?cè)?API 側(cè)進(jìn)行了推理優(yōu)化,因此 Yi-34B-Chat 系列 API 具備較快的推理速度,這不僅縮短了處理時(shí)間,同時(shí)也保持了出色的模型效果。此外,優(yōu)化的 API 接口顯著降低了模型回復(fù)的延遲,進(jìn)一步提高了用戶體驗(yàn)的流暢性和響應(yīng)速度。
• 兼容 OpenAI API
○ Yi 大模型 API 與 OpenAI API 完全兼容,你只需修改少量代碼,可以平滑遷移,即刻享受 Yi 大模型的超凡魅力。
200k + 多模態(tài)模型例子
○ Yi-34B-Chat 200K + 多模態(tài)模型解讀 Yi-tech-report 論文
• Yi-34B-Chat-200K 對(duì)經(jīng)典文學(xué)作品《呼嘯山莊》進(jìn)行復(fù)雜角色和角色關(guān)系的歸納總結(jié)。
○ 該小說(shuō)篇幅龐大(中文字?jǐn)?shù)約 30 萬(wàn)字),且人物關(guān)系錯(cuò)綜復(fù)雜,但它仍能精準(zhǔn)地梳理和總結(jié)出人物之間的關(guān)系,展示了它在處理超長(zhǎng)上下文時(shí)出色的復(fù)雜內(nèi)容理解和分析能力。
零一萬(wàn)物大模型開(kāi)放平臺(tái)發(fā)布,新用戶免費(fèi)贈(zèng)送60元
• ✅ 在全球多項(xiàng)權(quán)威評(píng)測(cè)榜單中,Yi 大模型表現(xiàn)優(yōu)異,性能直追 GPT-4。此前,Yi 大模型 API 小范圍開(kāi)放內(nèi)測(cè),全球已有不少開(kāi)發(fā)者申請(qǐng)使用,并普遍反饋效果超出預(yù)期,且對(duì) Yi-34B-Chat-200K API 有強(qiáng)烈需求。Yi-VL-Plus 多模態(tài)模型中文效果超過(guò) GPT-4V。因此,我們也不斷加大研發(fā)力度,終于在今天推出了大家期待已久的 API!✌️
• ✅ 目前,Yi 大模型 API 名額限量開(kāi)放中,新用戶贈(zèng)送60元。 🎉
零一萬(wàn)物希望與有創(chuàng)造力的你并肩作戰(zhàn),助力你加速開(kāi)發(fā) AI 2.0 應(yīng)用生態(tài),一同探索 LLM 的廣闊應(yīng)用場(chǎng)景。
API 邀測(cè)公號(hào)文章
• 零一萬(wàn)物API可以適用于哪些2B/2C場(chǎng)景
○ 【2C】使用Yi Chat模型構(gòu)建智能對(duì)話助手(類似ChatGPT)
○ 【2C】使用Yi多模態(tài)模型,識(shí)別圖片中存在的表格,文字,并進(jìn)行深層次的問(wèn)答。(此次3.14發(fā)布版本新增加的模型)
○ 【2B】將Yi系列模型整合到現(xiàn)有產(chǎn)品,實(shí)現(xiàn)類Copilot工具
○ 【2B】使用Yi超長(zhǎng)上下文模型構(gòu)建知識(shí)庫(kù)問(wèn)答,用于客服、培訓(xùn)等特定知識(shí)的問(wèn)答場(chǎng)景