假新聞2.0:人工智能將攪亂美國(guó)總統(tǒng)大選?
- 來源:《財(cái)富》(中文版) smarty:if $article.tag?>
- 關(guān)鍵字:人工智能,美國(guó),動(dòng)蕩 smarty:/if?>
- 發(fā)布時(shí)間:2023-07-24 20:43
作者:Jeremy Kahn
今年2月27日,在如火如荼的芝加哥市市長(zhǎng)選舉前夕,一個(gè)自稱“芝加哥湖畔新聞”(Chicago LakefrontNews)的推特(Twitter)賬號(hào)發(fā)布了候選人保羅·瓦拉斯(Paul Vallas)的一張照片和一段音頻。此前擔(dān)任市政府預(yù)算主任和學(xué)區(qū)主管的瓦拉斯,是四位角逐芝加哥最高職位的參選人之一。根據(jù)這段音頻,他似乎在刻意淡化警察槍擊事件,說“在我那個(gè)時(shí)代,”一位警察在其職業(yè)生涯中可能會(huì)殺死多達(dá)18位平民,“沒有人會(huì)眨一下眼睛。”這段音頻繼續(xù)說道:“這種‘停止為警察提供資金’的言論將導(dǎo)致芝加哥陷于動(dòng)蕩,無法無天。我們現(xiàn)在需要做的,不是撤銷警察資金,而是重新為他們提供資金支持。”
事實(shí)證明,瓦拉斯并沒有說過這些話。這段音頻很快就被證偽,很可能是用某個(gè)容易訪問、用于克隆聲音的人工智能軟件制作而成的。在音頻發(fā)布前幾天才注冊(cè)的“芝加哥湖畔新聞”賬號(hào)很快就刪除了這條推文—但在此之前,它已經(jīng)被成千上萬的人看到并廣泛轉(zhuǎn)發(fā),一些人顯然上當(dāng)了,相信“錄音”是真實(shí)的。依照目前的情形看,這段音頻對(duì)市長(zhǎng)選舉影響甚微:瓦拉斯贏得了多數(shù)選票,并在本文發(fā)稿時(shí)進(jìn)入第二輪決選階段(他最終以微弱劣勢(shì)敗北—譯注)。但專家們表示,這種克隆瓦拉斯聲音的做法堪稱一次令人驚悚的預(yù)演:拜人工智能的飛速發(fā)展所賜,2024年美國(guó)總統(tǒng)大選很可能會(huì)遭遇類似虛假信息的侵襲。
這些新型人工智能系統(tǒng)被統(tǒng)稱為“生成式人工智能”。比如,最近大火特火的文本處理工具ChatGPT只需要幾個(gè)提示,就能夠生成學(xué)生期末論文和商業(yè)電子郵件。但它只是這種技術(shù)的一個(gè)例子而已。一家名為ElevenLabs的公司發(fā)布了一款可以利用僅僅幾秒長(zhǎng)的樣本來克隆聲音的軟件。
此外,現(xiàn)在任何人都能夠訂購(gòu)OpenAI的DALL-E 2、S t a b l e D i f f u s i o n或Midjourney等軟件生成的逼真靜態(tài)圖像。盡管人工智能利用文本提示創(chuàng)建視頻的能力還處于初級(jí)階段,例如位于紐約的新創(chuàng)企業(yè)Runway開發(fā)的軟件可以生成幾秒鐘長(zhǎng)的視頻片段,但精通深度偽造技術(shù)的騙子完全能夠制作出足以亂真、讓許多人上當(dāng)受騙的假視頻。
紐約大學(xué)(New YorkUniversity)的認(rèn)知科學(xué)名譽(yù)教授、人工智能專家加里·馬庫(kù)斯(Gary Marcus)憂心忡忡地表示:“這真的令人不寒而栗,寢食難安。”他一直在警告公眾,支撐這項(xiàng)技術(shù)的大型語言模型是民主面臨的一大威脅。盡管我們已經(jīng)在過去幾屆的美國(guó)總統(tǒng)大選中見證過人們利用社交媒體發(fā)布和傳播虛假信息的景象,但人工智能的強(qiáng)悍能力遠(yuǎn)非人類所能企及—正是這種以前所未有的數(shù)量和速度傳播假消息的能力,以及非母語人士現(xiàn)在只需要敲幾下鍵盤就可以用大多數(shù)語言寫出通暢文本這一事實(shí),讓這種新技術(shù)成為一個(gè)巨大的威脅。“很難想象人工智能生成的虛假信息不會(huì)在下次大選中掀起波瀾。”他說。
并不是每個(gè)人都確信,如今的情勢(shì)像馬庫(kù)斯描述的那樣驚悚—至少現(xiàn)在還不是。專門研究人工智能和新興技術(shù)影響的布魯金斯學(xué)會(huì)(B r o o k i n g sInstitution)的研究員克里斯·梅塞羅爾(C h r i sMeserole)指出,最近幾屆的美國(guó)總統(tǒng)選舉已經(jīng)出現(xiàn)了非常高水平的人造虛假信息,他不確定新的人工智能語言模型會(huì)帶來顯著的變化。“我認(rèn)為這不會(huì)徹底改變游戲規(guī)則,2024年預(yù)計(jì)不會(huì)跟2020年或2016年有明顯的不同。”他說。
梅塞羅爾還表示,視頻深度偽造技術(shù)還不足以攪亂2024年美國(guó)總統(tǒng)大選(盡管他認(rèn)為,2028年的情況恐怕會(huì)有所不同)。真正讓梅塞羅爾擔(dān)憂的是語音克隆。他指出,一個(gè)很容易想象的場(chǎng)景是,一段音頻在選舉的關(guān)鍵時(shí)刻浮出水面,它記錄的據(jù)稱是候選人在私下場(chǎng)合里發(fā)表的可恥言論。盡管在場(chǎng)人士可能會(huì)否認(rèn)音頻的真實(shí)性,但外人恐怕很難確定。
那么,虛假敘事究竟是會(huì)說服任何人,還是只會(huì)強(qiáng)化一些人的現(xiàn)有信念?牛津互聯(lián)網(wǎng)研究所(Oxford InternetInstitute)的技術(shù)與監(jiān)管教授桑德拉·瓦赫特(SandraWachter)稱,相關(guān)研究給出了相互矛盾的結(jié)論。但在一場(chǎng)勢(shì)均力敵的選舉中,即便是這種邊際效應(yīng),也可能是決定性的。
面對(duì)機(jī)器生成式假新聞的威脅,一些人認(rèn)為人工智能本身可能是最好的防御手段。在西班牙,一家名為Newtral、專門對(duì)政客言論進(jìn)行事實(shí)核查的公司,正在試驗(yàn)類似于ChatGPT的大型語言模型。該公司的首席技術(shù)官魯本·米格斯·佩雷斯(RubenMiguez Perez)表示,這些模型不能真正驗(yàn)證事實(shí),但可以幫助人們更好地揭穿謊言。這種技術(shù)能夠在一段內(nèi)容做出值得核查的事實(shí)聲明時(shí)進(jìn)行標(biāo)記,還可以檢測(cè)其他宣揚(yáng)相同敘事的內(nèi)容,這一過程稱為“聲明匹配”。他說,與其他機(jī)器學(xué)習(xí)技術(shù)結(jié)合使用,這些大型語言模型也有望根據(jù)內(nèi)容蘊(yùn)含的情緒來評(píng)估某種說法是錯(cuò)誤信息的可能性。米格斯·佩雷斯指出,借助這些方法,Newtral已經(jīng)將識(shí)別可疑陳述所耗費(fèi)的時(shí)間減少了70%到80%。
大型社交媒體平臺(tái),比如F a c e b o o k和谷歌(Google)旗下的YouTube,一直在研究具備類似功能的人工智能系統(tǒng)。Facebook的母公司Meta表示,在2020年美國(guó)總統(tǒng)大選前夕,這家社交平臺(tái)為超過1.8億條被第三方事實(shí)核查員揭穿的內(nèi)容貼上了警告標(biāo)識(shí)。盡管如此,仍然有大量虛假信息蒙混過關(guān)。事實(shí)上,人工智能模型尤其難以捕捉那些借助圖像和文本來傳遞觀點(diǎn)的“表情包”。Meta宣稱,自2020年美國(guó)總統(tǒng)大選以來,其人工智能系統(tǒng)獲得了長(zhǎng)足進(jìn)步,但虛假敘事散布者正在持續(xù)不斷地設(shè)計(jì)一批批人工智能模型從未見過的新變體。
馬庫(kù)斯指出,合理的監(jiān)管或許能夠發(fā)揮一定作用:政府應(yīng)該要求大型語言模型的創(chuàng)建者刻上“數(shù)字水印”,從而讓其他算法更容易識(shí)別人工智能生成的內(nèi)容。作為ChatGPT的創(chuàng)建者,OpenAI確實(shí)談過這種水印,但尚未付諸實(shí)施。與此同時(shí),該公司還發(fā)布了免費(fèi)的人工智能內(nèi)容檢測(cè)軟件,但這種軟件只在大約三分之一的情況下有效。馬庫(kù)斯還表示,美國(guó)國(guó)會(huì)應(yīng)該將大規(guī)模制造和傳播虛假信息定為非法行為。盡管第一修正案(FirstAmendment)的支持者可能會(huì)高聲反對(duì),但憲法的制定者無論如何都想象不到未來有一天,人們只需要按一下按鈕,就可以利用技術(shù)生成無數(shù)令人信服的謊言。
話說回來,美國(guó)在建國(guó)之時(shí),即18世紀(jì)末期,也是一個(gè)傳播虛假信息的黃金時(shí)代。層出不窮的匿名傳單和黨派報(bào)紙肆無忌憚地兜售政敵和對(duì)立黨派的卑鄙故事。牛津大學(xué)的瓦赫特指出,民主在那時(shí)得以幸存。也許這一次也會(huì)如此。但我們很可能會(huì)見證一場(chǎng)史無前例的選舉活動(dòng)。
