騰訊混元Turbo大模型正式發(fā)布,實測效果國內(nèi)第一

騰訊宣布推出新一代大模型“混元Turbo”,相比前代模型,騰訊混元Turbo性能有顯著提升,訓練效率提升108%,推理效率提升 100%,推理成本降低 50%,解碼速度提升 20%,效果在多個基準測試上對標GPT-4o,第三方測評居國內(nèi)第一。

9月5日,騰訊宣布推出新一代大模型“混元Turbo”,相比前代模型,騰訊混元Turbo性能有顯著提升,訓練效率提升108%,推理效率提升 100%,推理成本降低 50%,解碼速度提升 20%,效果在多個基準測試上對標GPT-4o,第三方測評居國內(nèi)第一。

騰訊混元Turbo大模型正式發(fā)布,實測效果國內(nèi)第一

在騰訊全球數(shù)字生態(tài)大會上,騰訊公司副總裁、云與智慧產(chǎn)業(yè)事業(yè)群COO兼騰訊云總裁邱躍鵬宣布,騰訊混元Turbo在騰訊云上線,輸入和輸出價格只有前代模型的一半,企業(yè)和開發(fā)者可以直接在云上接入使用。

目前,騰訊混元在騰訊云上提供了多種尺寸的模型服務(wù),通過API、專屬模型、精調(diào)模型等接入和使用方式面向企業(yè)及個人開發(fā)者全量開放。騰訊混元在云上提供了Turbo、Pro、Standard、Lite等多個版本;在專屬模型上開放了代碼生成、角色扮演、Functioncall等;企業(yè)也可以通過騰訊云TI平臺對騰訊混元進行精調(diào)。

騰訊混元Turbo大模型正式發(fā)布,實測效果國內(nèi)第一

(圖:公開benchmark測評騰訊混元Turbo與國內(nèi)外大模型對比)

從去年開始,騰訊混元在國內(nèi)率先采用MoE結(jié)構(gòu),并在這一技術(shù)路線上持續(xù)升級,通過自研的萬億級層間異構(gòu)MoE結(jié)構(gòu),在模型不同層采用不同的專家個數(shù)和不同的激活參數(shù)量,同時優(yōu)化訓練數(shù)據(jù),使得新一代模型混元Turbo在效果和性能上均實現(xiàn)大幅度的提升。

在業(yè)界公認的benchmark指標上,騰訊混元Turbo處于國內(nèi)行業(yè)領(lǐng)先地位,效果接近國外頭部模型GPT4o和Claude3.5。作為新一代旗艦大模型,騰訊混元Turbo在語言理解、文本創(chuàng)作、數(shù)學和代碼等領(lǐng)域都有較大提升,跟前代模型相比,復雜數(shù)學解決能力提升38%,代碼能力提升32%。

騰訊混元Turbo大模型正式發(fā)布,實測效果國內(nèi)第一

(圖:公開benchmark測評騰訊混元Turbo與國內(nèi)外大模型對比)

9月2日,中文大模型測評基準SuperCLUE發(fā)布《中文大模型基準測評2024年8月報告》,騰訊混元Turbo憑借在多個核心任務(wù)上的出色表現(xiàn),總得分居國內(nèi)大模型第一名。作為國內(nèi)成績最好的模型,騰訊混元Turbo在理科、文科均居于第一名。在圍繞復雜任務(wù)和高階推理的Hard任務(wù)上,騰訊混元Turbo表現(xiàn)出色,取得74.33分,是國內(nèi)唯一超過70分的大模型,僅與ChatGPT-4o有微小差距。

作為騰訊全鏈路自研的大模型,自2023年9月正式亮相以來,騰訊混元通過持續(xù)的迭代和實踐,積累了從底層算力到機器學習平臺再到上層應用的自主技術(shù),其行業(yè)領(lǐng)先技術(shù)實力獲多方認可,在中國電子學會2023科學技術(shù)獎評選中,騰訊混元《面向大規(guī)模數(shù)據(jù)的Angel機器學習平臺關(guān)鍵技術(shù)及應用》獲科技進步一等獎。

基于領(lǐng)先的模型能力積累,騰訊混元大模型正在積極推進內(nèi)部應用落地,讓大模型創(chuàng)造更多價值,目前騰訊內(nèi)部近700個業(yè)務(wù)及場景已接入,包含騰訊元寶、騰訊云、QQ、微信讀書、騰訊新聞、騰訊客服等。此前,騰訊旗下協(xié)作SaaS(軟件即服務(wù))產(chǎn)品全面接入騰訊混元大模型。

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/678519.html

蘋果派的頭像蘋果派管理團隊

相關(guān)推薦

發(fā)表回復

登錄后才能評論