在人工智能領(lǐng)域的一次重大突破中,OpenAI 于昨日凌晨正式發(fā)布了其最新旗艦?zāi)P?GPT-4o。這一全新版本相較于前代產(chǎn)品,不僅在處理速度和成本上有了顯著提升,還大大增強(qiáng)了其數(shù)據(jù)處理能力和交互體驗(yàn)。
GPT-4o 的性能提升令人矚目。據(jù) OpenAI 官方介紹,新模型的速度比前代提高了一倍,而處理成本則降低了 50%,百萬(wàn) token 的處理成本降至 7 美元。更令人印象深刻的是,GPT-4o 具備了每分鐘處理高達(dá)千萬(wàn) token 的數(shù)據(jù)量能力,這將極大地加快大規(guī)模文本分析、自然語(yǔ)言處理等任務(wù)的處理速度。
除了性能上的提升,GPT-4o 還擁有 128K 的上下文記憶能力,這意味著它能夠更好地理解和處理長(zhǎng)文本中的復(fù)雜關(guān)系和上下文信息。此外,該模型的知識(shí)截止時(shí)間為 2023 年 10 月,這意味著它包含了截至該時(shí)間點(diǎn)的最新信息和知識(shí)。
微軟迅速響應(yīng)了這一重要發(fā)布,宣布已通過(guò) Azure OpenAI 服務(wù)提供 GPT-4o 的預(yù)覽版本。美國(guó)部分地區(qū)的 Azure OpenAI 用戶可以率先通過(guò) Azure OpenAI Studio 的預(yù)覽功能試用 GPT-4o 的強(qiáng)大功能。這一舉措將幫助企業(yè)和開(kāi)發(fā)者更早地體驗(yàn)到 GPT-4o 帶來(lái)的創(chuàng)新技術(shù)和應(yīng)用潛力。
GPT-4o 的另一個(gè)亮點(diǎn)是其強(qiáng)大的多模態(tài)處理能力。與以往的模型不同,GPT-4o 能夠無(wú)縫處理文本、圖像和音頻信息,為用戶帶來(lái)更加豐富、沉浸的交互體驗(yàn)。雖然目前初始版本僅支持文本和圖像,但 OpenAI 表示未來(lái)還將加入音頻和視頻的支持,這將進(jìn)一步拓展 GPT-4o 的應(yīng)用場(chǎng)景和潛力。
微軟將在本月晚些時(shí)候舉辦的 Build 2024 大會(huì)上分享更多有關(guān) GPT-4o 和 Azure 人工智能的新消息。我們期待這一全新的人工智能模型將在未來(lái)為各行各業(yè)帶來(lái)更多的創(chuàng)新和變革。
原創(chuàng)文章,作者:泡沫大盜,如若轉(zhuǎn)載,請(qǐng)注明出處:http://rponds.cn/article/654280.html