OpenAI阻止DALL-E用于選舉Deepfakes,確保信息準確性

OpenAI阻止DALL-E用于選舉Deepfakes,確保信息準確性

在最近的美國總統(tǒng)選舉季節(jié)中,OpenAIDALL-E圖像生成器引發(fā)了廣泛關(guān)注。然而,該公司明確表示,它已經(jīng)成功阻止了人們使用該工具來創(chuàng)造與政治相關(guān)的deepfakes。OpenAI在一份聲明中透露,DALL-E已經(jīng)拒絕了超過25萬份與拜登總統(tǒng)、當(dāng)選總統(tǒng)特朗普、副總統(tǒng)哈里斯、當(dāng)選副總統(tǒng)萬斯以及州長瓦爾茲的合影請求。

這一措施是OpenAI之前實施的一項安全策略的直接結(jié)果。為了避免其技術(shù)被用于傳播錯誤信息,OpenAI決定DALL-E將不再生成真實人物的圖像,包括政治家。這一決定不僅顯示了OpenAI對信息真實性的重視,也體現(xiàn)了其在人工智能道德和責(zé)任方面的深思熟慮。

自年初以來,OpenAI一直在為美國總統(tǒng)選舉做準備。公司制定了明確的策略,旨在防止其工具被用于誤導(dǎo)公眾,并確保詢問選舉事宜的用戶能夠獲取到準確的信息。OpenAI透露,在選舉日之前的一個月里,有100萬個ChatGPT回復(fù)將用戶引向了權(quán)威投票信息網(wǎng)站CanIVote.org。此外,在選舉日及其后的一天,ChatGPT還產(chǎn)生了200萬個回復(fù),建議用戶查看美聯(lián)社、路透社等權(quán)威新聞來源以獲取選舉結(jié)果。

OpenAI強調(diào),其聊天機器人ChatGPT在回復(fù)用戶時,即使被明確詢問,也不會表達政治偏好或推薦候選人。這一立場有助于保持ChatGPT回復(fù)的中立性和客觀性,為用戶提供一個不受政治傾向影響的交流平臺。

然而,值得注意的是,DALL-E并非唯一的人工智能圖像生成器。在社交媒體上,仍然存在許多與選舉相關(guān)的deepfakes。例如,一個經(jīng)過修改的競選視頻展示了卡瑪拉·哈里斯說出了一些她實際上并未說過的話,如“我被選中是因為我是最終的多元化雇員”。這類deepfakes的傳播可能對公眾造成誤導(dǎo),影響選舉的公正性和準確性。

OpenAI在防止其技術(shù)被用于誤導(dǎo)公眾方面采取了積極的措施。通過拒絕生成真實人物的圖像以及引導(dǎo)用戶獲取準確信息,OpenAI在維護信息真實性和準確性方面發(fā)揮了重要作用。然而,隨著人工智能技術(shù)的不斷發(fā)展,如何更好地應(yīng)對deepfakes等新型信息誤導(dǎo)手段,仍然是一個值得深入思考和探討的問題。

原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/692343.html

AI的頭像AI認證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論