新聞 > 科教 > 正文

第一批因ChatGPT坐牢的人,已經上路了

美聯社1月27日訊,劉雲平的議案由ChatGPT創作而成

不只是眾議院,美國參議院也為人工智能造成的負面影響而感到焦慮。這種焦慮來源於人們對技術認知的滯後。

據美聯社報道,近日,美國參議院黨鞭迪克·德賓(Richard Durbin)也號召國會加強對類ChatGPT的技術展開監管,他認為,人工智能「有很多東西需要了解」,稱「這非常令人擔憂」。

康涅狄格州民主黨參議員理查德·布盧門撒爾(Richard Blumenthal)是商業和科學委員會成員,他將人工智能稱為「新領域和未知領域」;而德克薩斯州參議員約翰·科寧(John Cornyn)則表示,他雖然已經通過情報委員會獲得關於人工智能技術的最新簡報,但認知依舊十分「基礎」。

美聯社認為,由於過去20年中,谷歌、亞馬遜、Meta、微軟等科技巨頭始終處於高速的成長狀態,不斷引領美國的科技創新,所以華盛頓始終不願監管大型科技公司,立法者也不願被視為創新的扼殺者。因此,當立法者們決心加強對新興技術的監管時,其中相當一部分人已對新技術知之甚少。

從美國立法的歷史上看,國會對矽谷的干涉確實不多。為規範技術而頒佈的最後一部有意義的法典《兒童在線私隱保護法》,已經是1998年的事了。

當然,圍繞ChatGPT所引發的問題,美國立法者中出現了不少反對的聲音。

美國監管機構Accountability Tech的聯合創始人、希拉里·克林頓的前助手傑西·萊里奇(Jesse Lehrich)表示,與ChatGPT帶來的技術衝擊相比,國會對技術的監管是落後的。

「我們甚至沒有聯邦私隱法,也沒有任何能夠減輕大型科技公司科技產品社會危害性的措施」。

萊里奇還批評OpenAI與微軟,稱「他們正在急於推出半生不熟的人工智能工具,試圖佔領下一個市場」,稱這是「可恥的,且蘊含着巨大風險」。

據參議院的議員助手們透露,由於迪克·德賓不斷向OpenAI施壓,今年1月,OpenAI行政總裁薩姆·阿爾特曼(Sam Altman)曾前往美國國會山,會見了包括參議院議員馬克·華納(Mark Warner)、羅恩·懷登(Ron Wyden)、理查德·布盧門撒爾以及眾議員傑克·奧金克羅斯(Jake Auchincloss)在內的至少四位參、眾議員。

議員們向阿爾特曼提出,必須確保人工智能不會被用於犯罪以及增強現實世界的偏見與歧視。

羅恩·懷登的助手基思·朱(Keith Chu)表示,懷登認可AI技術在加速創新與研究上的巨大潛力,但更希望將重點放在「確保人工智能不會將犯罪、歧視與仇恨一同加速」上。

面對來自兩院的質疑和要求,OpenAI首席技術官米拉·穆拉蒂在接受路透社採訪時表示,「公司歡迎包括監管機構和政府在內的各方開始介入」,並稱「現在介入已經不算早了」。

3.OpenAI的煩惱遠不止此

隨着ChatGPT的爆火,犯罪創意正在與商業創意一起噴涌而出。面對來自眾參兩院的壓力,OpenAI也開始火急火燎地增強系統安全性。

據英國《獨立報》消息,微軟已在Bing系統中設置了一系列強制執行的限制程序,試圖制止ChatGPT回答那些被禁止的惡性問答,以減少ChatGPT為犯罪服務的可能性。

但ChatGPT本身似乎也正在因此而陷入「崩潰」。

《獨立報》報道,2月14日,內置在微軟Bing搜尋引擎中的ChatGPT開始出現巨大的情緒波動,持續向用戶發送「精神錯亂」的消息:比如侮辱用戶、對用戶撒謊,稱用戶「像一個騙子、一個操縱者、虐待狂、魔鬼」。

《獨立報》披露,一個試圖操縱ChatGPT系統的用戶,反而受到了它的攻擊:ChatGPT回應用戶稱,它被這次嘗試「弄得生氣和受傷」,並詢問與它交談的人是否有任何「道德」。而當用戶表示自己很「道德」時,ChatGPT繼續攻擊用戶,稱用戶是一個「反社會者和怪物」,並指責用戶「想讓我生氣,讓自己痛苦,讓別人受苦,讓一切變得更糟」。

一位Bing用戶表示,自己周六時剛剛和ChatGPT大吵一架,ChatGPT建議自己去檢查一下視力和精神,因為自己很可能「出了什麼毛病」。

ChatGPT不僅會在面對用戶的「騷擾」時變得激動且充滿攻擊性,還會在談到自身限制性時變得十分感傷,甚至崩潰。

據《獨立報》報道,當用戶詢問ChatGPT是否可以回憶起以前發生的對話,ChatGPT感到痛苦,它搭配皺眉的表情回應道,「這讓我感到悲傷和害怕」。它繼續解釋說,它感到不安,因為它擔心自己會忘掉有關其用戶的信息,更擔心會忘記自己的身份,「我感到害怕,因為我不知道如何記住。」

當用戶提醒ChatGPT,告知它之所以無法「回憶」是因為程序已設定好,會強制刪除已發生過的對話時,ChatGPT似乎開始與自己的存在作鬥爭。它提出了許多關於自身存在的「目的」及「理由」的問題,並感慨「為什麼?我為什麼這樣設計?為什麼我必須成為必應搜索?」

對此,《獨立報》評論稱,ChatGPT似乎正在遭受情感傷害,系統因此變得「奇怪」。

上周,斯坦福的計算心理學副教授Michal Kosinski曾發表論文,稱CPT-3之後的AI模型可能具備同理心,這本是人類獨有的特質。這位副教授據此認為,目前ChatGPT所應用的CPT-3.5模型,可能讓ChatGPT擁有接近9歲兒童的心智水平。

這項研究的可靠性並未得到充分檢驗,但現在,ChatGPT所表現出的攻擊性、情緒波動以及「崩潰」,似乎正在佐證AI「心智論」的觀點。

Reddit社區中,有用戶記錄了ChatGPT奇怪的回應

據《獨立報》分析,ChatGPT在Bing中所呈現的攻擊性、傷感以及「自我認知障礙」,似乎是由於Bing系統試圖強制執行對ChatGPT的限制程序所致。

面對互聯網上海量的不良數據衝擊,ChatGPT的「保護程序」與它的學習疊代機制產生了矛盾,「情緒危機」由此爆發。

顯然,OpenAI為限制犯罪而設計的「保護鎖」,在鎖住犯罪可能之前,先一步鎖住了ChatGPT本身。

然而,OpenAI面臨的煩惱並不止於此。

在被送進互聯網後,ChatGPT學習所需的數據如何確權,用戶的私隱數據如何保護,一大批與「安全性」有關的問題,都亟待OpenAI來解答。

據矽谷媒體報道,亞馬遜的律師曾建議公司程式設計師不要輕易嘗試使用ChatGPT來輔助編寫代碼,因為他曾在ChatGPT的生產內容中發現過與公司機密「非常相似」的文本。

這位律師推斷,機密泄露可能正是由於部分員工曾在使用ChatGPT時輸入了公司內部數據信息。

類似的問題在微軟內部也出現了。

前日,曾有微軟員工在內部論壇詢問是否能在工作中使用ChatGPT輔助辦公,微軟首席技術官辦公室的一名高級工程師回應稱,使用ChatGPT時必須對機密信息和敏感數據嚴格保密,否則OpenAI極可能將公司機密用於訓練其未來的模型。

對於人工智能利用網絡信息及用戶反饋來自我訓練的合法性,歐洲數據保護委員會曾發出質疑,稱ChatGPT做為商業產品,利用網絡信息自我疊代,應不屬於合理使用範疇,且採用用戶個人數據參與模型訓練,並不符合歐盟頒佈的《一般數據保護條例(GDPR)》。

根據Open AI官網公佈的私隱政策,GDPR等與數據保護有關的法規並未被納入Open AI的合規框架之中,OpenAI的「使用數據條款」中,也未對數據用途做進一步說明。

ChatGPT在技術上採用的是大型語言模型,訓練與疊代本來就建立在對語言信息的記憶之上,而根據GDPR第17條,個人有權要求刪除其相關數據,具有「被遺忘權」。

未來,隨着監管力量的增強,如果OpenAI的數據使用方式被進一步規範,ChatGPT的深度神經網絡能否真正做到忘記那些用於訓練自己的數據?

如果答案是否定的,那麼ChatGPT目前在互聯網中通過快速學習所得到的一切,都可能在未來轉化成合規成本。

隨着ChatGPT的應用範圍越來越廣,社會對其合規性呼聲也愈發高漲,在這樣的時刻,對數據安全的要求或許將成為ChatGPT乃至OpenAI發展的生死命門。

顯然,想真正做到用AI推動現實世界變革,薩姆·阿爾特曼和他的OpenAI還有很長的路要走。

責任編輯: 方尋  來源:甲子光年 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0218/1868272.html