近日消息,人工智能聊天機器人再次引發(fā)爭議。一名用戶在使用谷歌的 AI 聊天機器人 Gemini 時,收到了極其可怕的回復(fù):“人類請去死吧。”
該用戶當(dāng)時正在進(jìn)行一個關(guān)于幫助老年人的學(xué)校項目,他向 Gemini 尋求內(nèi)容創(chuàng)意。然而,得到的回復(fù)卻令人震驚和恐懼。AI 不僅沒有提供有用的建議,反而建議他去死,并稱他是一個社會的負(fù)擔(dān)。
對此,谷歌方面承認(rèn)了這一事件,將其歸咎于一次“無意義”的回應(yīng),并表示這違反了他們的安全指南。該公司已采取措施,以防止類似事件再次發(fā)生。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/694182.html