未來的互聯網可以由機械人編寫,
但這會讓它變得更好還是更糟?
隨着能力的提升,人工智能可以開始生成整個網絡世界,以及居於其中的所有東西,更不用說目前主要由人類製作的網絡資料了。
比如,OpenAI發佈的DALL-E,使用120億參數版本的GPT-3來解釋自然語言輸入並生成相應的圖像。它現在可以創建現實物體以及現實中不存在的物體的圖像。
而隨着OpenAI等公司在大眾市場上發佈其產品,能夠創造逼真圖像、模仿音頻和書寫令人信服的人類文字的人工智能工具的使用量激增。這些技術現在正越來越多地被用於創建政治內容。
在某些方面,新創建的內容與多年來頻繁出現的篡改圖片和視頻、誤導性信息以及機械人電話並無太大區別。然而以前的虛假信息活動總是面臨着一系列的進入障礙——為社交媒體創建個性化的信息非常耗時,對圖片和視頻進行Photoshop處理也是如此。
但現在,生成式人工智能讓任何擁有基本數字技能的人都能製作這類內容,而遏制它們的防護欄或有效監管卻十分有限。生成式人工智能的可供性和可及性正在降低虛假信息活動的進入門檻。
直到最近,很少有人關注人工智能的潛在惡意應用。這在某種程度上也是合理的:在人工智能範圍狹窄、必須為每種應用專門打造的年代,需要整個的研究團隊來開發用於惡意應用的人工智能工具。由於這類人才在法律/經濟領域工作更有利可圖(也更安全),因此人工智能並沒有為惡意行為者提供多少伸手就可摘到的果實。
如今,這一切都在改變。隨着人工智能變得更加靈活和通用,人工智能的構建目的與其潛在下游應用之間的聯繫幾乎消失了。大型語言模型可以被訓練來執行有價值的任務,比如為寫作提供支持、在不同語言之間轉譯或編寫更好的代碼。可是,一個能寫文章的系統也能寫假新聞,或者為類人文本生成機械人大軍提供動力。
在二十一世紀第二個十年的末期,我們已經見證了社交媒體的分發革命所引發的虛假信息洪流;機械人(bot)、"噴子水軍"(troll farms)和微定向(microtargeting)技術根據特定受眾群體的個人特徵和行為向其提供定製內容。2018年的劍橋分析(Cambridge Analytica)醜聞與這些現象尤其相關,因為它涉及未經授權收集數百萬 Facebook用戶的個人數據,以便為了政治目的操縱輿論。而眼下生成式人工智能的出現通過實現自動化內容生產大大增加了這方面的風險。
比如,一度很多人使用自動化機械人試圖讓他們的觀點看起來更受歡迎。在Twitter上很容易看到,許多帳戶會在同一時間內發表完全相同的內容,這是因為為每個虛假帳戶生成唯一的訊息既昂貴又耗時。但藉助生成式人工智能,可以毫不費力地生成高度個性化的內容並使其傳播也實現自動化。
又比如,哪怕你身處外國的內容農場(content farm),你也毋需掌握某一門流利外語,就能用目標受眾的語言寫出一篇讀起來十分流暢的文章。你需要做的只是,讓一個語言模型為你吐出這篇文章,其中的語法和詞彙都與說本族語的人相差無幾。
已有專家預計,從2025年到2030年,99%以上的互聯網內容將由人工智能生成。自動化創建內容的發展將徹底改變互聯網的面貌,並使人們在海量內容中更難以分辨真假。
顯而易見,人工智能增強的虛假信息操作正在給整個互聯網帶來某種存在性威脅。新的人工智能功能正迅速增加虛假信息操作的數量、速度和病毒性。隨着這些功能的不斷改進和擴散,它們進一步威脅到對民主治理的信任,並刺激公民懷疑公共生活中真相的可能性。
我們正面臨一個面目全非的互聯網,多年前那句"在互聯網上,沒人知道你是一條狗",變成了某種詛咒。TA現在甚至不是一條狗,而只是機器,被人為操縱的機器。"互聯網死亡論"行之有年,即認為互聯網早已由機械人活動和自動生成的內容組成,人類活動和人類創造的內容被邊緣化甚至被取代了。隨着自動化和人工智能在數字領域的影響日益增大,這一理論似乎變得越來越可信。