OpenAI與Anthropic同意美國政府提前評估新AI模型安全

OpenAI與Anthropic同意美國政府提前評估新AI模型安全

近日,全球知名的人工智能公司OpenAIAnthropic宣布了一項重要舉措,與美國人工智能安全研究所(US AI Safety Institute)簽署諒解備忘錄,承諾在發(fā)布重大新的人工智能模型前,將允許美國政府提前訪問并評估這些模型的安全性。這一合作被視為推動AI技術安全發(fā)展的重要里程碑。

根據協(xié)議內容,兩家公司在其AI模型公開發(fā)布之前及之后,都將向美國政府開放訪問權限,以便共同識別并緩解潛在的安全風險。美國政府表示,這一合作將有助于增強對AI技術的理解和監(jiān)管,確保AI技術的安全可控發(fā)展。

OpenAI首席戰(zhàn)略官Jason Kwon對此次合作表示高度支持,他強調:“我們非常支持美國AI安全研究所的使命,并期待通過合作,共同制定AI模型的安全最佳實踐和標準。我們相信,這一合作將在確保美國在負責任開發(fā)AI方面的領導地位上發(fā)揮關鍵作用。”

Anthropic公司同樣對此次合作寄予厚望。公司聯(lián)合創(chuàng)始人兼政策負責人Jack Clark表示:“確保AI安全可靠對于發(fā)揮該技術的積極影響至關重要。通過這種測試和合作方式,我們能夠更好地發(fā)現(xiàn)和減少AI帶來的風險,推動負責任的AI發(fā)展。我們?yōu)槟軈⑴c這項重要工作感到自豪,并期望為AI的安全性和可信度設立新的標準?!?/p>

值得注意的是,這一合作正值全球范圍內對AI監(jiān)管政策討論的熱點時期。在聯(lián)邦和州立法機構紛紛探討如何平衡AI技術創(chuàng)新與安全監(jiān)管之際,OpenAI和Anthropic的舉措無疑為行業(yè)樹立了典范。周三,加利福尼亞州立法者通過了《前沿人工智能模型安全創(chuàng)新法案》(SB 1047),要求該州的人工智能公司在訓練先進基礎模型前采取特定安全措施。盡管該法案已進行修改并等待州長簽署,但仍引發(fā)了業(yè)界的廣泛關注和討論。

美國白宮也一直在積極尋求從主要AI公司獲得關于安全措施的自愿承諾。多家領先的AI公司已作出非約束性承諾,投資于網絡安全和歧視研究,并致力于對AI生成內容進行水印標記等安全措施。

美國人工智能安全研究所所長伊麗莎白·凱利在一份聲明中強調:“這些新的協(xié)議只是開始,但它們是我們努力幫助負責任地管理AI未來的一個重要里程碑。”她表示,未來將繼續(xù)推動AI技術的安全發(fā)展,確保AI技術能夠造福人類社會。

此次OpenAI與Anthropic與美國政府的合作,無疑為AI技術的安全發(fā)展注入了新的動力。隨著AI技術的不斷進步和應用領域的不斷拓展,如何確保AI技術的安全性和可信度將成為全球關注的焦點。通過加強合作與監(jiān)管,我們有理由相信AI技術將在未來發(fā)揮更加積極的作用,推動人類社會的進步和發(fā)展。

原創(chuàng)文章,作者:AI,如若轉載,請注明出處:http://rponds.cn/article/677402.html

AI的頭像AI認證作者

相關推薦

發(fā)表回復

登錄后才能評論