OpenAI邀請各領(lǐng)域?qū)<壹尤搿凹t隊網(wǎng)絡(luò)” 以提高其AI模型安全性

美國人工智能研究公司OpenAI宣布推出“紅隊網(wǎng)絡(luò)”(Red Teaming Network),并邀請各領(lǐng)域?qū)<壹尤肫洹凹t隊網(wǎng)絡(luò)”,以提高其人工智能(AI)模型的安全性

近日,據(jù)外媒報道,美國人工智能研究公司OpenAI宣布推出“紅隊網(wǎng)絡(luò)”(Red Teaming Network),并邀請各領(lǐng)域?qū)<壹尤肫洹凹t隊網(wǎng)絡(luò)”,以提高其人工智能(AI)模型的安全性。

OpenAI邀請各領(lǐng)域?qū)<壹尤搿凹t隊網(wǎng)絡(luò)” 以提高其AI模型安全性

OpenAI的這一舉措旨在深化和擴大其與外部專家的合作,以確保其人工智能模型的可靠性和安全性。簽約的專家將通過協(xié)助評估和減輕模型風險,在增強OpenAI人工智能系統(tǒng)的穩(wěn)健性方面發(fā)揮關(guān)鍵作用。

盡管OpenAI之前通過漏洞賞金計劃和研究人員訪問計劃與外部專家合作,但新推出的“紅隊網(wǎng)絡(luò)”將這些努力正式化。

OpenAI表示,“紅隊網(wǎng)絡(luò)”是一個由經(jīng)驗豐富且值得信賴的專家組成的社區(qū),可以幫助公司更廣泛地進行風險評估,而不是在主要模型部署之前進行一次性參與和選擇過程。

據(jù)報道,“紅隊”在識別人工智能系統(tǒng)中的偏見和評估安全過濾器方面發(fā)揮著至關(guān)重要的作用,已經(jīng)成為人工智能模型開發(fā)過程中的關(guān)鍵一步,尤其是在生成式技術(shù)得到更廣泛采用的情況下。

OpenAI向不同領(lǐng)域的專家發(fā)出邀請,包括具有語言學、生物識別、金融和醫(yī)療保健背景的專家。該公司強調(diào)了各種專業(yè)知識對人工智能評估的重要性,包括但不限于認知科學、法律、網(wǎng)絡(luò)安全、經(jīng)濟學和醫(yī)療保健等領(lǐng)域。

原創(chuàng)文章,作者:科技探索者,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/582979.html

科技探索者的頭像科技探索者管理團隊

相關(guān)推薦

發(fā)表回復

登錄后才能評論