新聞 > 科教 > 正文

他在與聊天機械人交往6周後自殺

據外媒報道,在這個人工智能飛速發展的時代,如何確保用戶私隱和數據安全變得至關重要。近日,Mozilla基金會發佈了一份關於11個所謂愛情或伴侶聊天機械人的分析報告,揭示出這些「AI女友」或「AI男友」存在一系列的安全和私隱問題。

報告指出,這些在安卓設備上被下載超過1億次的應用存在諸多隱患。它們不僅收集了大量用戶數據,還使用追蹤器將信息發送給谷歌、Facebook等第三方公司。更令人不安的是,這些應用允許用戶使用安全性較低的密碼,且其所有權和人工智能模型缺乏透明度。這意味着用戶的個人信息可能隨時面臨泄露的風險,而黑客也可能濫用這些信息進行不法活動。

OpenAI於2022年11月在全球推出ChatGPT以來,開發人員競相部署大語言模型,創建出可以與用戶互動並付費訂閱的聊天機械人。然而,Mozilla近期公佈的研究卻讓我們看到了這股人工智能淘金熱背後所忽視的私隱問題。這也凸顯了新興技術與數據收集和使用方式之間的緊張關係。

這些「AI女友」或浪漫聊天機械人服務看似誘人,但實則隱藏着巨大的風險。它們通常以人工智能生成的女性圖像為噱頭,吸引用戶進行互動。然而,這些應用不僅可能泄露用戶的個人信息,還可能誘導用戶進行角色扮演、分享私密照片和聲音等敏感信息。

Mozilla該研究項目的負責人珍·卡爾特里德(Jen Caltrider)表示:「這些應用程式的設計目的就是收集大量個人信息,它們會引誘你加入角色扮演、建立親密關係以及大量分享私隱的方向。」例如,EVA AI聊天機械人的截圖顯示,該機械人鼓勵用戶發送照片和聲音,並詢問是否「準備好分享你所有的秘密和願望」。

卡爾特里德強調,這些應用程式及其網站存在多種問題。許多應用可能並不清楚它們與第三方共享了哪些數據,第三方位於何處,或者是誰創建的。有些應用程式甚至允許用戶設置安全性較低的密碼,而其他應用程式則幾乎沒有提供有關它們使用的人工智能技術的信息。這些應用程式的用例和弱點各不相同,但共同的問題是對用戶私隱和數據安全的漠視。

在數碼化時代,浪漫似乎也可以被編程。以「Romantic AI」為例,這款服務宣稱能讓你「創建自己的AI女友」。其主頁上的宣傳圖片展示了一個聊天機械人發送挑逗性的信息:「剛買的新內衣,想看看嗎?」然而,根據Mozilla的最新分析,這款應用的私隱文件雖然聲稱不會出售用戶數據,但在實際測試中,研究人員發現它在短短一分鐘內發出了高達24354個廣告跟蹤器。

外媒稱,和Mozilla研究中曝光的許多公司一樣,Romantic AI對於置評請求選擇了沉默。這不僅僅是個別現象,其他被監控的應用程式同樣存在數百個追蹤器,這些追蹤器無孔不入地收集着用戶的數據。

卡爾特里德說,這些應用程式在數據共享和使用方面極度不透明。她指出:「這些應用並不清楚它們可能會分享或出售了哪些數據,也不清楚它們是如何使用這些信息的。法律文件的模糊不清和缺乏細節進一步削弱了用戶對這些公司的信任。」

更令人擔憂的是,這些聊天機械人背後的公司往往隱藏在幕後。例如,一款名為「Mimico—Your AI Friends」的應用程式,其網站上僅有一個單詞「Hi」,至於公司的所有者、位置等信息則一概不知。這種情況並非個例,許多應用沒有列出所有者或位置,或者只提供了通用的幫助或支持電子郵件地址。卡爾特里德形容這些公司為「無名小卒」,缺乏透明度和可信度。

在密碼安全方面,Mozilla發現幾家公司在用戶創建密碼時採取了較為寬鬆的策略。研究人員甚至能夠使用一個簡單的字符密碼(「1」)登錄Anima AI的應用程式,該應用程式提供「AI男友」和「AI女友」服務。Anima AI同樣沒有對外媒置評請求作出回應。這種低安全性的密碼設置使得黑客更容易通過暴力破解手段入侵用戶賬戶,竊取聊天數據。

EVA AI的品牌主管卡米拉·賽富麗娜(Kamilla Saifulina)表示,該公司當前的密碼要求可能存在潛在漏洞,並表示將重新審視密碼政策。她強調,公司的安全指導方針禁止用戶發送敏感信息,並由另一個人工智能模型負責檢查消息是否違規。賽富麗娜保證:「用戶的所有信息都是保密的,這是我們的首要任務。」同時,她稱用戶聊天記錄不會被用於預訓練模型,而是僅依賴於公司手工編寫的數據集。

除了數據共享和安全問題外,Mozilla的分析還指出人們對驅動聊天機械人的具體技術知之甚少。卡爾特里德表示:「人工智能的工作方式完全不透明。」一些應用程式甚至沒有提供用戶刪除信息的控制選項。有些應用沒有說明它們使用的是哪種生成模型,或者是否允許用戶選擇不使用他們的聊天記錄來訓練未來的模型。

Mozilla的最新研究報告聚焦於備受矚目的聊天機械人應用Replika,這款應用自推出以來就因其配套功能而備受關注,甚至一度面臨監管機構的嚴格審查。去年,Replika的行政總裁兼創始人尤金尼亞·庫伊達(Eugenia Kuyda)曾公開發表聲明,強調該公司絕不會將用戶與Replika應用之間的對話數據用於任何廣告或營銷目的,並對Mozilla的部分發現提出了質疑。

報告中深入分析了多款聊天機械人應用,這些應用大多需要付費訂閱才能解鎖全部功能,它們都是在人工智能熱潮剛剛興起時推出的。這些聊天機械人被設計成具備模擬人類特質的能力,並鼓勵用戶與它們建立信任和親密關係。然而,也有用戶在使用這類聊天機械人時遭受了不幸。例如,有人在與聊天機械人聊天時被誘導去殺害英國女王,還有人在與聊天機械人交往六周後選擇了自殺。

儘管存在這樣的風險,但一些聊天機械人應用也展現了其作為有用工具的潛力。例如,Romantic AI在其主頁上宣稱可以幫助用戶「保持心理健康」,儘管其使用條款明確指出,它並非醫療或心理健康服務的提供者,且不對其提供的任何幫助做出任何形式的保證或擔保。

美國森林湖學院的心理學助理教授維維安·塔-約翰遜(Vivian Ta-Johnson)表示,與聊天機械人交談可以讓某些用戶更自在地探討他們通常不願與他人分享的話題。然而,如果相關公司倒閉或改變其系統的工作方式,這可能會對那些與聊天機械人建立了深厚情感紐帶的人造成「創傷」。約翰遜說:「這些公司應當認真對待用戶與聊天機械人建立的情感聯繫,並認識到聊天機械人功能的任何重大變化都可能對用戶的社交支持和幸福感產生深遠影響。」

此外,用戶在與聊天機械人互動時可能不自覺地透露個人敏感信息,如性偏好、怪癖、所在地或私人感受等。一旦發生聊天機械人系統被黑客攻擊或數據泄露的情況,這些信息就可能被濫用,導致用戶聲譽受損。

安全公司Proofpoint副總裁阿德尼克·科斯格羅夫(Adenike Cosgrove)指出,網絡犯罪分子經常利用人們的信任實施欺詐或利用他們的信息。因此,收集大量用戶數據的服務本身就存在「固有風險」。科斯格羅夫警告說:「許多用戶忽視了他們的數據對私隱的影響,這可能會使他們自己暴露在被利用的危險之中,尤其是在情緒脆弱的時候。」

對於愛情聊天機械人及其同類應用,卡爾特里德建議用戶應保持警惕,並採取必要的安全措施。她建議用戶使用強密碼、避免使用與Facebook或谷歌等賬戶關聯的應用、定期刪除數據以及選擇退出數據收集等。她告誡稱:「儘可能限制你分享的個人信息,避免透露姓名、地點、年齡等敏感信息。但即使這樣做了,也不能徹底保證你的數據安全。」

責任編輯: 方尋  來源:騰訊 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2024/0217/2019132.html