谷歌聲稱能“偷窺”O(jiān)penAI大模型秘密,GPT-3.5核心信息遭“泄露”!

谷歌聲稱能“偷窺”O(jiān)penAI大模型秘密,GPT-3.5核心信息遭“泄露”!

近日,谷歌的一項最新研究引發(fā)了業(yè)界的廣泛關注。該研究團隊聲稱通過簡單調用API的方式,成功還原了OpenAI大型語言模型的關鍵信息,包括整個投影矩陣和隱藏維度大小,且成本極低,最低僅需約150元人民幣。

谷歌的這項研究針對的是OpenAI的大型語言模型,尤其是GPT系列。通過巧妙地利用API訪問模型,并發(fā)出大量有針對性的查詢,谷歌的研究團隊成功地提取出了模型的嵌入投影層的關鍵參數(shù)。嵌入投影層是模型的最后一層,負責將隱藏維度映射到logits向量,是模型輸出的重要部分。

研究團隊表示,他們通過向模型發(fā)送特定查詢,并觀察模型的響應,從而推斷出模型的隱藏維度大小。這種方法不僅適用于GPT系列的基礎模型Ada和Babbage,同樣適用于更高級的GPT-3.5和GPT-4模型。

值得注意的是,谷歌的研究團隊在進行這項研究之前,已經得到了OpenAI的同意。在完成攻擊后,他們也與OpenAI確認了方法的有效性,并刪除了所有與攻擊相關的數(shù)據。

盡管谷歌的研究團隊僅通過API調用就獲取了模型的部分關鍵信息,但這一發(fā)現(xiàn)仍然引起了業(yè)界的震驚。這意味著即使OpenAI等大型語言模型提供商采取了嚴格的安全措施,其模型仍然可能面臨潛在的安全風險。

針對這一發(fā)現(xiàn),OpenAI已經采取了相應的防御措施,包括修改模型API和隱藏維度等。然而,這也引發(fā)了關于大型語言模型安全性和開放性的新一輪討論。

谷歌的這項研究不僅揭示了大型語言模型的安全漏洞,也為未來的模型安全研究提供了新的思路。隨著人工智能技術的不斷發(fā)展,如何確保模型的安全性和隱私性將成為業(yè)界面臨的重要挑戰(zhàn)。

對于OpenAI來說,這一事件也提醒了他們需要更加重視模型的安全性,并采取更加嚴格的措施來保護模型的關鍵信息。同時,他們也需要與業(yè)界共同合作,共同推動人工智能技術的健康發(fā)展。

總之,谷歌的這項研究為我們提供了一個新的視角來看待大型語言模型的安全問題。未來,我們期待看到更多的研究和創(chuàng)新,以推動人工智能技術的不斷進步和發(fā)展。

原創(chuàng)文章,作者:AI,如若轉載,請注明出處:http://rponds.cn/article/636340.html

AI的頭像AI認證作者

相關推薦

發(fā)表回復

登錄后才能評論