據(jù)外媒報道,歌及其母公司Alphabet首席執(zhí)行官桑達爾·皮查伊近日發(fā)文表示,人工智能(AI)太過重要,必須受到監(jiān)管,人們非常擔心AI造成的潛在負面后果。
皮查伊撰文全文如下:
我在印度長大,總是對技術癡迷不已。每項新發(fā)明都以意義非凡的方式改變了我和家人的生活。有了電話,我們就不必長途跋涉去醫(yī)院看檢查結果了。冰箱意味著我們可以花更少的時間做飯,電視讓我們可以在收聽短波收音機的同時看到我們只能想象的世界新聞和板球比賽。
現(xiàn)在,我很榮幸能幫助塑造新的技術,我們希望這些技術將改變世界各地人們的生活。其中,最有前途的技術包括AI:就在本月,關于Alphabet和谷歌如何挖掘AI潛力的三個具體例證已經(jīng)發(fā)布?!蹲匀弧钒l(fā)表了我們的研究,顯示AI模型可以幫助醫(yī)生在乳房X光檢查中更準確地發(fā)現(xiàn)乳腺癌;作為應對氣候變化的重要組成部分,我們正在使用AI更快、更準確地對降雨量做出即時的預測;漢莎航空集團正在與我們的云計算部門合作,測試使用AI來幫助減少航班延誤。
然而,歷史上有很多例子表明,技術的發(fā)展也會帶來出人意料的負面影響。內(nèi)燃機讓人們可以長途旅行,但也造成了更多的事故?;ヂ?lián)網(wǎng)使人們有可能與任何人聯(lián)系,從任何地方獲取信息,但也更容易傳播錯誤信息。這些教訓告訴我們,我們需要清醒地認識到可能會出現(xiàn)的問題。
人們確實擔心AI造成的潛在負面后果,從深度換臉(deepfakes)到抑制面部識別技術的使用。雖然許多公司已經(jīng)做了很多工作來解決這些擔憂,但未來不可避免地會有更多挑戰(zhàn),沒有任何單獨的公司或行業(yè)可以單獨應對。歐盟和美國已經(jīng)開始制定監(jiān)管提案,國際協(xié)調(diào)將是使全球標準發(fā)揮作用的關鍵。
要實現(xiàn)這個目標,我們需要在核心價值觀方面達成一致。像我們這樣的公司不能僅僅創(chuàng)造有前途的新技術,然后讓市場力量決定如何使用它。我們同樣有責任確保科技得到善用,讓每個人都可以使用?,F(xiàn)在,在我看來,AI需要受到監(jiān)管,這是毋庸置疑的。這項技術太過重要,不能放任不管。
唯一的問題是如何對待它。這就是為何谷歌在2018年發(fā)布了自己的AI原則的理由,旨在幫助指導這項技術以符合倫理道德的方式開發(fā)和使用。這些指導方針幫助我們避免偏見,嚴格測試安全性,在設計之初就將隱私放在首位,并使技術對人們負責。這些原則還指定了我們不會設計或部署AI的領域,例如支持大規(guī)模監(jiān)視或侵犯人權。
但停留在紙面上的原則沒有任何實際意義。因此,我們還開發(fā)了將其付諸實施的工具,例如測試AI決策的公平性,以及對新產(chǎn)品進行獨立的人權評估。我們甚至走得更遠,讓這些工具和相關的開源代碼廣泛可用,這將使其他人能夠善意地使用AI。我們認為,任何開發(fā)新AI工具的公司都應該遵循這些指導原則和嚴格的審查程序,政府的監(jiān)管也需要發(fā)揮重要作用。
我們不必從頭開始去做。現(xiàn)有的規(guī)則可以作為堅實的基礎,如歐洲的《通用數(shù)據(jù)保護條例》。好的監(jiān)管框架將考慮安全性、可解釋性、公平性和問責性,以確保我們以正確的方式開發(fā)正確的工具。明智的監(jiān)管還必須采取相稱的方法,平衡潛在的危害,特別是在高風險領域。監(jiān)管可以提供廣泛的指導,同時允許在不同部門有針對性地部署技術。
對于有些AI技術的使用,例如包括AI輔助心臟監(jiān)測器在內(nèi)的受監(jiān)管醫(yī)療設備,現(xiàn)有框架提供了很好的監(jiān)管基礎。對于自動駕駛汽車等較新的領域,政府將需要建立適當?shù)男乱?guī)則,并考慮所有相關的成本和好處。谷歌的作用始于認識到,應用AI需要遵循原則性的、受監(jiān)管的方法,但它并沒有到此為止。
我們希望在監(jiān)管機構努力應對不可避免的緊張局勢和權衡取舍時,成為他們的合作伙伴。在共同應對這些問題時,我們可以提供我們的專業(yè)知識、經(jīng)驗和工具。AI有可能改善數(shù)十億人的生活,而最大的風險可能是無法實現(xiàn)這個目標。通過確保以負責任的方式構建AI,使每個人都受益,我們可以激勵子孫后代像我一樣相信技術的變革力量。
原創(chuàng)文章,作者:若安丶,如若轉載,請注明出處:http://rponds.cn/article/486303.html