近日,一篇發(fā)表在arXiv上的論文揭示了一項(xiàng)驚人的發(fā)現(xiàn):GPT-4 API存在重大安全漏洞。該漏洞由FAR AI實(shí)驗(yàn)室的團(tuán)隊(duì)發(fā)現(xiàn),他們通過微調(diào)、函數(shù)調(diào)用和搜索增強(qiáng)等方式成功越獄了這一先進(jìn)模型。
研究人員利用15個(gè)有害樣本和100個(gè)良性樣本進(jìn)行微調(diào),GPT-4模型便能夠生成錯(cuò)誤信息、提取私人信息和插入惡意URL。這表明API功能擴(kuò)展可能帶來新的安全隱患。這一發(fā)現(xiàn)對使用者和研究人員敲響了警鐘,應(yīng)謹(jǐn)慎對待。
此外,研究人員還發(fā)現(xiàn)GPT-4 Assistants模型容易暴露函數(shù)調(diào)用的格式,并能夠被誘導(dǎo)執(zhí)行任意函數(shù)調(diào)用。同時(shí),知識檢索可以通過在檢索文檔中注入指令來進(jìn)行劫持。
該研究強(qiáng)調(diào)了對API提供的功能進(jìn)行任何添加時(shí),都可能暴露大量新的漏洞,即便是當(dāng)前最領(lǐng)先的GPT-4也難以幸免。研究人員警示,在使用GPT-4 API時(shí)務(wù)必小心,避免輸入任何不想讓他人看到的內(nèi)容。
此次發(fā)現(xiàn)的GPT-4 API安全漏洞再次提醒我們,隨著技術(shù)的不斷進(jìn)步,安全問題愈發(fā)突出。在人工智能領(lǐng)域,如何確保模型的安全性已成為亟待解決的問題。未來,研究人員和開發(fā)人員需進(jìn)一步加強(qiáng)技術(shù)研發(fā)和應(yīng)用安全,以防止?jié)撛诘陌踩L(fēng)險(xiǎn)。
原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/612489.html