AMD發(fā)布首個10億參數(shù)開源AI模型OLMo

AMD發(fā)布首個10億參數(shù)開源AI模型OLMo

近日,AMD公司宣布推出其首個完全開放的10億參數(shù)語言模型系列——AMD OLMo。這一創(chuàng)新舉措為開發(fā)者和研究人員提供了強大的AI研究工具,進一步推動了人工智能領(lǐng)域的發(fā)展。

據(jù)悉,AMD OLMo模型是基于從零開始訓(xùn)練的10億參數(shù)語言模型系列,在AMD Instinct? MI250 GPU集群上進行了大規(guī)模的預(yù)訓(xùn)練。訓(xùn)練過程中使用了超過1.3萬億個tokens,確保了模型在處理自然語言任務(wù)時具備出色的推理能力。

AMD OLMo采用了解碼器(decoder-only)架構(gòu),并通過下一個標(biāo)記預(yù)測(next-token prediction)進行訓(xùn)練。這種架構(gòu)在生成文本和理解上下文方面表現(xiàn)出色,使得OLMo模型在推理能力和聊天能力上相較于其他同類開源模型具有顯著優(yōu)勢。在多個基準(zhǔn)測試中,OLMo的性能與最新的同類模型相當(dāng),但其計算預(yù)算僅為后者的一半。

除了數(shù)據(jù)中心使用外,AMD OLMo還支持配備NPU(Neural Processing Unit,神經(jīng)處理單元)的AMD Ryzen AI PC進行模型部署。這意味著開發(fā)者可以在個人設(shè)備上輕松提供AI功能,進一步降低了AI技術(shù)的門檻。

值得注意的是,AMD OLMo是完全開源的。這一舉措意味著其他開發(fā)者和公司可以自由使用和修改這些模型,從而推動AI技術(shù)的創(chuàng)新和發(fā)展。對于希望探索AI技術(shù)替代方案的企業(yè)而言,AMD OLMo無疑是一個可行的選擇。

AMD此次發(fā)布的OLMo模型不僅展示了其在AI領(lǐng)域的強大研發(fā)實力,也為開發(fā)者和研究人員提供了更為便捷和高效的AI研究工具。隨著AI技術(shù)的不斷發(fā)展,AMD OLMo有望在各個領(lǐng)域發(fā)揮重要作用,推動人工智能技術(shù)的進一步普及和應(yīng)用。

原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/691886.html

AI的頭像AI認證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論