新聞 > 科教 > 正文

想不到?人工智能竟面臨如此挑戰

人工智能軟件通過大量的數據、複雜的算法得出各種結果。現在這個領域遇到了新的挑戰:當某些用戶要求把自己的數據從系統中刪除的時候,這些系統怎麼辦?

機器學習概念圖

傳統的電腦、數據庫就是簡單地把數據刪除。但是對於人工智能系統情況就不是這麼簡單。這就像在一個人成長過程中經歷的事情,對這個人日後的性格、人生觀造成種種影響,你怎樣才能從這個人的記憶中刪除某件事情,仿佛它從來沒有發生過?

這正是現在人工智能領域面對的新挑戰,研究人員把這個課題叫做人工智能解除學習(unlearn)。研究人員想到的最直接的辦法是,把要刪除的數據從原始數據庫中刪除,然後讓整套人工智能系統從頭開始、重新訓練得出新的結果。但是顯然,這個辦法耗費的資金和時間成本太高,不可行。

近年來,人工智能領域出現的私隱數據爭議,逼迫研究人員必須找到方案實現人工智能解除學習。

例如按照歐洲和美國加利福利亞州的法律,任何公民即使最初同意分享他們的數據,但是後來他們改變了主意不願分享,所有使用了他們數據訓練而成的人工智能系統,都要把這些數據、以及這些數據造成的影響從系統中刪除。

再比如今年年初,美國聯邦貿易委員會(FTC)要求面部識別軟件初創公司Paravision從系統中刪除一組照片。這些照片沒有得到正式授權,可是他們的人工智能面部識別系統已經在包括這組照片的大數據基礎上訓練而成。

目前人工智能技術還沒有好的方案可以解決這個問題。致力於人工智能解除學習領域的學者之一美國賓夕法尼亞大學(University of Pennsylvania)教授羅斯(Aaron Roth)告訴連線網(WIRED):「新興的領域正是這樣,需求和實際能力之間存在落差。」

2019年一些研究人員提出一個辦法,把人工智能系統使用的數據集分成很多小單元,分別進行訓練,最後再組合在一起。將來哪個數據需要刪除,只要重新訓練受到影響的那個小單元,這樣不用拆解整個人工智能系統全部重來。

然而,羅斯與哈佛大學、史丹福大學的研究員合作完成的一份研究,發現了這種方法存在明顯漏洞:如果要求刪除的是一系列數據,而且具有時間先後的順序,那麼這種方法就完全無能為力。這份研究6月8日發表於預印網arXiv。

不僅如此,這些系統怎樣向監管機構證明它們已經把這些數據造成的影響完全從系統中剔除?另一些研究人員則開始了這方面的研究。

牛津大學教授、研究數據保護的專家賓斯(Reuben Binns)說,近年來在美國和歐洲,越來越多的人意識到自己有權利了解人工智能系統產生的結果裏面,是否含有自己的數據所產生的影響。

加拿大滑鐵盧大學(University of Waterloo)教授說:「現在還沒有好的辦法,但是將來的審計員很可能需要管理這些事情。」

責任編輯: 李華  來源:大紀元 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2021/0911/1645459.html