評論 > 言論 > 正文

哈佛博士:政治家依賴人工智能有風險

戈德馬赫採訪了一些政治活動家,他們擔心「壞人」可能會利用人工智能浪費對方競選團隊的時間,比如假扮潛在選民,製作自己候選人的深度造假信息,向支持者提供個性化視頻,或者偽造對方候選人的語音信息,在選舉前一天發送給選民。

2023年6月20日,美國總統喬‧拜登(左)和加州州長加文‧紐森(Gavin Newsom)在三藩市參加了一場討論人工智能機遇與風險的活動

生成式人工智能(Generative artificial intelligence)正變得日趨普遍,包括在政治領域。當前總統唐納德‧川普特朗普)在紐約被警察暴力逮捕的人工合成圖片、或者教宗身穿時尚白色羽絨服的照片在網上瘋傳時,都是很多人相信、或者願意相信的東西。

6月26日,谷歌母公司Alphabet前行政總裁埃里克‧施密特(Eric Schmidt)對人工智能傳播虛假信息的能力發出警告,他告訴CNBC電視台的觀眾,「2024年的大選將會一團糟,因為社交媒體並沒有保護我們免受虛假生成式人工智能的影響。」

施密特指出,Alphabet、推特、Meta等社交媒體公司削減了數千個專門負責內容審核的工作崗位。這類工作可能有助於在2024年的大選中發現人工智能的深度造假。

已經有很多造假出現在競選活動中了。

多倫多市長候選人安東尼‧菲利(Anthony Furey)在競選綱領材料中發佈了人工智能生成的女性照片,照片上的女性居然長了三隻胳膊﹐除此之外看起來很真實。這位候選人還發表了假的反烏托邦城市景觀。

有了人工智能,受僱於政界的技術人員可以製作出超真實的彩色增強圖像,以消除公眾的害怕心理。而如果選民以前不害怕,他們現在就會害怕,並且更可能投票給那些通過定製的微目標來個性化信息、最能迎合害怕心理的政客。

風險在於,選舉活動——包括那些在假選舉中利用深度造假來使其權力合法化的獨裁者——變得更加脫離現實。威權政治已經脫離了現實,因為審查制度和虛假信息被灌輸給他們的人民,而他們的手下反過來向俄羅斯和中國等國的獨裁者灌輸他們想聽的東西。

有了人工智能,儘管專制者對自身權力的合法化過於樂觀,但他們的任期將更有保障。

2018年11月9日,一名男子在電腦上觀看新華社推出的人工智能(AI)新聞主播。(Nicolas Asfouri/AFP via Getty Images)

民主國家至少要好一點。選民通過公開的辯論和群眾的智慧為領導人提供了某種程度的真實感。然而,當這些人群受到太多虛假信息(要麼過於樂觀,要麼過於可怕)的操縱時,民主就會變得具有變得煽動性。

人工智能將煽情所需的技術交給煽動者,使任何類型的圖像、文本、視頻和語音的深度偽造看起來、聽起來都真實可信。

紐約時報》記者蒂芙尼‧許(Tiffany Hsu)和史蒂文‧李‧邁爾斯(Steven Lee Myers)報導說:「4月份芝加哥市長選舉排名第二的候選人抱怨說,一個偽裝成新聞機構的推特賬戶,用人工智能冒充他的聲音,暗示他寬恕了警察的暴行」。

《紐約時報》的謝恩‧戈德馬赫(Shane Goldmacher)寫道:「共和黨和民主黨的軟件工程師們競相開發工具,利用人工智能提高廣告效率,對公眾行為進行預測分析,編寫越來越多的個性化文案,並在海量選民數據中發現新模式。」

民主黨全國委員會進行政治實驗,結果,人工智能生成的文本至少與人類生成的文本表現一樣好。高地實驗室(Higher Ground Labs)投資於支持進步政治的技術,它有一個名為 Quiller的人工智能系統,可以同時編寫、發送和測試籌款電子郵件。

「斯蒂芬‧科拜爾深夜秀」(The Late Show with Stephen Colbert)節目用人工智能模仿了塔克‧卡爾森(Tucker Carlson)的聲音,聽起來同樣流暢。

播客節目「Pod Save America」對喬‧拜登總統的聲音進行了深度模仿,說了一些拜登永遠不會說的話(還有一些他可能會說的話)。

戈德馬赫採訪了一些政治活動家,他們擔心「壞人」可能會利用人工智能浪費對方競選團隊的時間,比如假扮潛在選民,製作自己候選人的深度造假信息,向支持者提供個性化視頻,或者偽造對方候選人的語音信息,在選舉前一天發送給選民。

除非對人工智能在政治上的使用進行監管,否則這項技術可能會變得無處不在、功能強大,從而損害真正民主所依賴的知情的選民。到那時,民選官員的成功將依賴於人工智能,不太可能改變最初讓他們當選的過於寬鬆的選舉法。為什麼要自斷人工智能這個臂膀呢?到那時,我們可能會永遠被人工智能政治所束縛,就像我們被過於寬鬆的競選融資法所束縛一樣。

一些政治專家和選舉顧問現在呼籲制定法規,阻止人工智能為政治廣告生成合成圖像。

ChatGPT的創造者OpenAI禁止生成大量的競選材料。

然而,這種自律並沒有聽起來那麼有用。與它的名字相反,OpenAI並不使用開原始碼。任何政治運動或恐怖組織都可以下載大量其它的開原始碼,並按照自己的需要進行修改。

當涉及到政治時,我們迫切需要對人工智能進行監管——我們已經有足夠多的欺騙性競選活動了。我們不需要政客們所依賴的更多更好的深度造假﹐我們需要的是相反的東西。

作者簡介:

安德斯·科爾(Anders Corr)擁有耶魯大學政治學學士和碩士學位(2001年)、哈佛大學政府學博士學位(2008年),也是科爾分析公司(Corr Analytics Inc.)的負責人與《政治風險雜誌》(the Journal of Political Risk)的出版商。他曾對北美、歐洲和亞洲進行廣泛的研究,著有《權力的集中》(The Concentration of Power,即將於2021年出版)和《禁止闖入》(No Trespassing),編輯過《大國,大戰略》(Great Powers, Grand Strategies)等。

原文:Politicians Risk AI Dependency刊登於英文《大紀元時報》。

本文僅代表作者觀點,並不一定反映《大紀元時報》立場。

責任編輯: 李安達  來源:大紀元 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0731/1934489.html