在人工智能領域,蘋果公司今日邁出重要一步,發(fā)布了一系列名為OpenELM的開源大型語言模型(LLM),旨在直接在設備上運行,而非依賴云服務器。這一創(chuàng)新舉措標志著蘋果在人工智能領域持續(xù)深化,并將為自然語言處理研究與應用帶來革命性變化。
OpenELM的發(fā)布,不僅豐富了Hugging Face平臺上的AI資源,更通過其開源特性,為全球研究人員和開發(fā)者提供了一個共享與創(chuàng)新的平臺。此次發(fā)布的OpenELM模型共有八個版本,其中四個基于CoreNet庫進行了預訓練,另外四個為指令調整模型,以滿足不同應用場景的需求。
蘋果在OpenELM的開發(fā)中采用了分層擴展策略,這一策略在transformer模型的每一層中有效地分配參數,顯著提高了模型的準確性。在大約十億個參數的預算下,OpenELM相較于OLMo模型,在準確率上提升了2.36%,而所需的預訓練數據量卻減少了整整一倍。
值得一提的是,蘋果在發(fā)布OpenELM時,不僅提供了模型的源代碼和預訓練權重,還分享了完整的訓練日志、多個檢查點以及預訓練配置。這種全面的開放方式,不僅方便了研究人員和開發(fā)者對模型進行復現和優(yōu)化,更有助于推動自然語言人工智能領域的快速發(fā)展。
蘋果公司表示,OpenELM的發(fā)布旨在通過最先進的語言模型“授權和豐富開放研究社區(qū)”,為研究人員提供了一種調查風險、數據和模型偏差的方法。開發(fā)人員和公司可以原樣使用模型或進行修改,以適應各種實際應用場景。
此外,蘋果通過OpenELM的開源,也在招募頂級工程師、科學家和專家方面獲得了新的優(yōu)勢。開放的信息共享政策為研究人員提供了發(fā)表研究論文的機會,這在蘋果以往較為保密的政策下是難以實現的。
盡管蘋果尚未將其AI功能全面應用于設備,但業(yè)界普遍預期,iOS 18將集成眾多新的人工智能功能。特別是傳言稱,蘋果正計劃出于隱私保護的目的,在設備上直接運行其大型語言模型,這將為用戶帶來更加流暢和安全的體驗。
OpenELM的發(fā)布無疑為蘋果在人工智能領域的進一步發(fā)展奠定了堅實基礎。隨著越來越多的企業(yè)和研究機構加入到這一開源項目中,相信未來自然語言處理領域將迎來更多創(chuàng)新和突破。同時,蘋果通過擁抱開源,也展示了其在推動科技進步和開放合作方面的決心和擔當。
原創(chuàng)文章,作者:AI,如若轉載,請注明出處:http://rponds.cn/article/650351.html