今日,2024年美國總統(tǒng)大選正式拉開帷幕,愛荷華州率先舉行黨團會議。在這個關(guān)鍵時刻,生成式人工智能公司OpenAI宣布了一系列措施,以防止其工具(如ChatGPT和DALL-E)被用于創(chuàng)建和傳播”深度偽造”和其他虛假信息,這些信息可能會被用來破壞美國總統(tǒng)大選,甚至是今年全球各國密集舉行的大選。
OpenAI在博文中表示,該公司將確保其工具被用于提供準確的投票信息、執(zhí)行有節(jié)制的政策和提高透明度。為了應對潛在的濫用問題,OpenAI設立了一個專門負責選舉工作的跨職能部門,該部門匯集了公司的安全系統(tǒng)、威脅情報、法律、工程和政策團隊的專業(yè)知識。
OpenAI明確表示,其工具將不會被用于任何政治活動或游說目的。此外,該公司還禁止使用其工具和服務創(chuàng)建任何旨在模擬與真實候選人或政府團體聊天的聊天機器人。為了防止散布歪曲人們在選舉中的投票方式或勸阻人們投票的信息,OpenAI將采取措施阻止這些濫用行為。同時,該公司還將允許人們向OpenAI報告可能的違規(guī)行為。
除了防止濫用其工具外,OpenAI還在開發(fā)相關(guān)工具以幫助識別人工智能通過DALL-E制作的深度偽造圖像。目前,該公司正在開發(fā)一種名為”出處分類器”的新工具,該工具可以幫助發(fā)現(xiàn)人工智能制作的圖像,即使圖像經(jīng)過了常見類型的修改。包括記者在內(nèi)的一組測試人員將很快能夠試用這一工具。
最近的一份報告稱,微軟的Copilot聊天機器人使用了OpenAI開發(fā)的技術(shù),經(jīng)常對有關(guān)2023年選舉的一些問題提供錯誤的答案。11月,微軟宣布計劃提供一款新工具,幫助各政黨證明其創(chuàng)建的圖像(如廣告和視頻)是真實的,沒有經(jīng)過人工智能工具的修改。
總體而言,OpenAI采取的這些措施表明了該公司對于防止其工具有被用于破壞選舉的決心。通過跨職能部門的設立和采取防止濫用的措施,OpenAI正在確保其工具有助于提供準確的信息和執(zhí)行有節(jié)制的政策。同時,該公司還在開發(fā)新的工具以幫助識別人工智能制作的深度偽造圖像。這些措施有望保護美國總統(tǒng)大選和全球其他密集舉行的大選免受虛假信息的干擾和破壞。
對于愛荷華州率先舉行的黨團會議和即將到來的美國總統(tǒng)大選,這些措施的實施將受到密切關(guān)注。隨著選舉的進行,我們將繼續(xù)關(guān)注OpenAI和其他相關(guān)公司的動態(tài),以了解他們?nèi)绾螒獙撛诘臑E用問題和保護選舉的公正性。
原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請注明出處:http://rponds.cn/article/619789.html