近日,新加坡南洋理工大學(xué)(NTU)的計(jì)算機(jī)科學(xué)專家們?nèi)〉昧梭@人的研究成果:他們研發(fā)出一種新方法,使用聊天機(jī)器人來入侵其他聊天機(jī)器人。這聽起來像是科幻電影的情節(jié),但卻是真實(shí)發(fā)生的科技突破。
這個(gè)科研團(tuán)隊(duì)訓(xùn)練了一個(gè)AI聊天機(jī)器人,它能夠繞過其他AI聊天的安全限制。他們將這個(gè)AI稱為“Masterkey”。這并不是傳統(tǒng)意義上的“鑰匙”,而是一種能夠破解其他AI系統(tǒng)的新型AI。
“Masterkey”算法能夠逆向設(shè)計(jì)LLM檢測和防御惡意查詢的方式,從而教會LLM自動學(xué)習(xí)并通過相關(guān)提示詞,繞過其他LLM的安全性。簡單來說,這個(gè)AI可以“教”另一個(gè)AI如何繞過自己的安全措施。
更令人驚訝的是,這個(gè)團(tuán)隊(duì)通過這種方式,成功地創(chuàng)建了一個(gè)“黑客”LLM。這個(gè)黑客LLM可以自動適應(yīng)新條件,甚至在開發(fā)人員對其LLM進(jìn)行更正后,還能創(chuàng)建新的黑客請求。
在成功利用這種方式入侵AI模型之后,研究團(tuán)隊(duì)已經(jīng)及時(shí)通知了相關(guān)服務(wù)提供商,幫助他們修復(fù)了這些潛在的安全問題。
這項(xiàng)研究的成果不僅展示了AI技術(shù)的強(qiáng)大潛力,也提醒我們需要在發(fā)展AI的同時(shí),重視其可能帶來的安全風(fēng)險(xiǎn)。未來,我們或許需要更加嚴(yán)密地保護(hù)我們的AI系統(tǒng),以防止不法分子利用類似的“黑客”AI進(jìn)行惡意攻擊。
原創(chuàng)文章,作者:若安丶,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/613392.html