新聞 > 科教 > 正文

大陸人臉識別無所不在 監控你一切行動 你卻蒙在鼓裏

「現在去售樓處買房,都得帶個頭盔!為啥?攝像頭『認識』你!」

前一陣,這樣一則新聞引起了轟動:山東濟南某樓盤售樓處,一名看房人為了不泄露自己個人信息,頭戴摩托頭盔去看房。

《南方都市報》和《北京日報》等數家媒體的調查顯示,售樓處使用了帶有面部識別的監控技術,能夠辨認出一名顧客是「自行前來」的購房者,還是中介帶來的;不同的銷售渠道會使用不同的定價策略,而一個人是否被面部識別為「直銷」,中間會有高達幾十萬的差價;而這種技術,已經在相當多的地方有應用。

為保護個人信息,戴着頭盔看房

所有的一切,都是在顧客不知情的情況下展開的。你被盯得清楚,卻蒙在鼓裏。

許多人聽聞這件事之後,比這更直接的反應,是「可怕」,甚至是「毛骨悚然」。仿佛在一個看不到的地方,有無數隻眼睛盯着你,自己的身份,連同一舉一動,都暴露在一個全知全能的監視者之下

還有更多的問題在腦海中浮現:連同面部信息一起,其他個人信息數據存儲在哪裏?是否被用來盈利?是否有泄露的風險?面部識別技術,是否被濫用了?

這讓我想起一件事。2018年,在某人工智能大會的會展區,我在裏面起碼20多個屏幕上,看到了自己被「識別」的臉。除了智慧城市、安保監控之外,「刷臉」還被開發者們用在了虛擬登機牌、景區門票、無人超市上,可謂是無孔不入。登機的時候,安檢刷完臉之後,機場遍佈的攝像頭知道你在哪兒,也知道什麼時候該給你送上「溫馨提示」,告訴你要登機、別跑了;而最讓我感到「不適」的,是某家公司開發的監控系統,把人臉和身份證號後四位直接赤裸裸地展示在監控屏幕上。

自己的身份,連同一舉一動,都暴露在一個全知全能的監視者之下

這種恐懼感究竟來自哪裏?到底是哪個環節需要我們特別警惕?我們是否會在遍佈四周的監控技術里被「溫水煮青蛙」、習慣了它的存在,還是真的有某一個不能碰的人性和私隱底線?

「順暢」刷臉的隱憂

其實,如果單論技術本身,面部識別技術已經發展了相當長一段時間了,其技術原理也並沒有很複雜。和其它的圖像識別一樣,它的原理是提取圖像中的特徵,然後判定這個特徵是否與數據庫中的特徵符合、有多少概率是同一張臉。最近幾年,因為機器學習的快速發展,機器對於面部特徵的提取和識別能力,亦有了飛速進展。2016年的時候,谷歌基於 ImageNet訓練出來的圖像識別模型,準確度已經超越了人類,速度自然也是不在話下。

這其實和真正的「人工智能」還差得很遠。但因為它的應用實在太廣,嵌進了無數的使用場景中,而應用過程又十分地順暢,給人一種「智能」的錯覺。

「順暢」,是面部識別技術的一大特徵。在推崇這個技術的人眼裏,它最大程度地模仿了人和人之間的交互,即用「看」即可。畢竟,用眼睛識別一個人的臉,是我們人類與生俱來的功能。你拿起你的 iPhone,就會自動解鎖;走進家門,門會自動打開;進入學校和辦公室等需要安保的場所,不用停下查證件……

但這種順暢的交互,從另外一個角度看,是「沒有交互」。一切都無縫地、在無聲無息之間發生。也就是說,很多時候我並不能以知情的方式,給出我的同意。我用我的指紋必須按在門鎖上,這個「按」的動作,亦是我在與機器「對話」——我現在需要開門了。而我只是在攝像頭面前「出現」,我的臉就已經給出了所有的信號,不管我想不想。

我只是在攝像頭面前「出現」,我的臉就已經給出了所有的信號,不管我想不想。

這也是為什麼人臉識別技術可以非常「隱蔽」。它是一個不需要給出「知情同意」就可以應用的技術。它出現了,它應用了,但你不知道。而知情同意的缺失,也讓私隱泄露變得極其容易。到底有多少攝像頭在我身邊,跟蹤我、記錄我?我是不是已經在不知不覺中「丟失」了我的臉?這些問題,想起來略微有一些可怕。

如何用臉「重建」一個你?

但更進一層的恐懼,來自於面部識別背後的運轉邏輯——它是如何處理、如何匹配、如何運用面部信息的

我們人有許多可供識別的生物特徵,包括指紋、虹膜、面部特徵,乃至基因等等,都有潛在的數據化的可能。它們可以被記錄,可以被複製,可以被傳播,可以散見在互聯網各處——公安系統里有我們的指紋,微信里錄下了我們的聲音,而我們上傳到社交網絡的照片上都有我們的臉。美國加州大學聖迭戈分校(UCSD)技術社會學教授凱莉·蓋茨(Kelly Gates)將其稱為「去身化的身份」(disembodied identity)。

我們的身份已然「離開了」我們身體,我們甚至不再對其有掌控。

但是,面部識別技術的關鍵在於,這些獨一無二的生物信息數據,怎麼和更多的技術、更大的數據庫、更廣的系統中的各式各樣的關於我們的碎片拼起來,湊成一個完整的「自己」

將一個人的面部特徵作為加密信息、打開我的手機「刷臉」,和將一個人的臉解碼成為「我的身份」,在更大的系統里流轉(和公安系統匹配的監控),雖然都是「刷臉」,但卻是截然不同的刷法。

我們的身份已然「離開了」我們身體,我們甚至不再對其有掌控

如果你的臉只是用來打開你家的門,那麼你的臉除了重建出「你是這個家的主人」之外,並沒有任何別的意義。

但當這個數據從你的小世界來到了「雲端」,與更大的數據庫相交、互相印證,那麼你自己的身份,也就更加無所遁形——你是誰,你家在哪裏,你大概處於社會中什麼樣的地位,你昨天網購的東西,你的「健康碼」、你的身份證號……即使證件號碼等重要信息泄露可能性小,但只要有足夠多的其它數據,「重建」一個你,並不會太困難。

我們和深淵之間,並沒有多少堅實的保護。

利益讓技術跑得越來越快

紐約長島大學的技術倫理學家安東·阿爾特曼(Anton Alterman)在一篇論文中指出,生物信息識別的私隱風險,主要存在於幾個方面:

1)一個技術是否能準確識別出一個特定個人的真實社會身份;

2)信息是否只留存於本地、還是在更廣的網絡中流動、使用;

3)使用一個技術是否需要用戶的協作;

4)技術開發者是否有保護私隱的動力。

當下的面部識別技術,正挑戰着全部四個方面。面部數據可以準確識別個人;數據互通帶來濫用的危險;使用的時候,甚至無需知情同意。而最後一點可能是解題的關鍵——保護數據私隱的動力從何而來?它們能對各方帶來什麼好處?而誰又從中獲利?誰在其中有發言權?

在那場人工智能大會上,我着實領會到了生產端的動力,以及客戶的購買力。人工智能作為一個新興產業,得到了大量的投資,而投資者需要看到技術投入應用、看到回報。於是,面部識別技術被包裝為各種各樣的「解決方案」,打包出售給商業客戶。是他們最有能力購買這些技術作為「解決方案」,而這種購買力,很大程度上決定了面部識別技術的研發走向。

一個有面部識別解鎖功能的手機,或者能刷臉開門的智能門鎖,對我們普通用戶的吸引力並沒有那麼大。畢竟,指紋也能解鎖,密碼也能開門,不「雲端」「智能」也無妨。但對於公共場所的經營者以及各級管理部門而言,全面而有效的監控,身份的精準識別,乃至收集、使用數據以獲益,帶來的好處十分巨大,比「保護私隱」更加重要。強大的推動力,讓技術開發越走越遠,且越來越向經營者、管理者、客戶,而不是實際用戶傾斜。

人臉識別技術越來越向經營者、管理者、客戶,而不是實際用戶傾斜

在面部識別這個技術的很多應用場景里,用戶發出的聲音是有限的,有的時候甚至是無力的。我們有選擇「不使用」的權力嗎?我們的意願能夠得到重視嗎?我們是否能夠判斷,一個技術運用在什麼地方是合適的、在什麼地方是過度的?理想的市場場景里,我們可以用腳投票;而當下的市場,資本的強大加上信息的不透明,讓用戶處於無權、無聲的劣勢。

無處不在的攝像頭,讓這個社會變得越來越像福柯筆下的「環形監獄」(Panopticon)——監控無處不在,能看到所有人、識別所有人,而被觀看者甚至無法得知監控在哪裏、從何而來。一個良性發展的技術,不應該是這樣。

技術的「潛台詞」

技術一旦投入社會,就不再僅僅是「工具」了。一個技術的使用,數據與數據構建的身份,為人與人、人與機構之間的關係定下了基調,也為這些「數據」賦予了社會含義。在購房處被「識別」,意味着我們和售樓處的關係,變成了「奸商」和待宰的購房客之間的關係;在公司的樓道里,因為多蹲了10分鐘廁所而被「識別」,意味着我們和公司的關係,變成了資本家和必須要被壓榨出每一分鐘勞動力的打工人的關係。

但我們之間的關係,一定、必須是這樣的嗎?我們真的沒有別的選擇了嗎?在商業交易中,雙方應該是站在平等對話的基礎上協商交易的關係;在僱傭勞動中,雙方應該是相互信任、付出勞動並得到回報的關係。面部識別和監控技術的濫用,扭曲了這種關係,將公平與信任踩在腳下。

面部識別和監控技術的濫用,將公平與信任踩在腳下

私隱是人格尊嚴的一部分——它代表着一個人有能力且有權利支配自己的空間,不受他人的干擾;也意味着對私隱的保護,能夠最大程度地尊重人的自由和創造性,而不是把人看作一個隨時需要監控、需要操縱的螺絲釘。不管技術如何發展,我們的底線是,一個安全、方便的社會,不應該以犧牲人的尊嚴為代價。

所以,技術背後的「潛台詞」,可能比技術本身更加重要。追問技術存在的理由,追問技術與人的關係,是讓一個技術變得不再「可怕」的第一步。

比如,在人流密集的公共場所,機場、火車站等地,我們實際上是讓渡自己一部分的私隱,去換取方便、安全;這用別的方式或許很難達到、不夠經濟;或許能夠阻止巨大的災難——911事件發生時,監控錄像實際上已經拍到了恐怖分子的臉,但並沒有識別出來。

我們讓渡自己一部分的私隱,去換取方便、安全

但在小區、在學校、在火鍋店,每個場景都是不同的,都有着自己的「潛台詞」——為什麼要用它?數據的作用是什麼?數據存儲在哪裏?除了這個方法之外,有沒有別的方法?這對被監控、被識別的人的好處在哪裏?是否知情、是否予以了同意?這些都是在技術被應用之前,需要提出的問題。

希望我們將來的社會,還能讓我們坦然「面」對。

參考文獻

[1]Gates, K. A.(2011). Our biometric future: Facial recognition technology and the culture of surveillance(Vol.2). NYU Press.

[2]Alterman, A.(2003).``A piece of yourself'': Ethical issues in biometric identification. Ethics and information technology,5(3),139-150.

[3]Van Oenen, G.(2006). A machine that would go of itself: interpassivity and its impact on political life. Theory& event,9(2).

[4]Introna, L. D.(2005). Disclosive ethics and information technology: Disclosing facial recognition systems. Ethics and Information Technology,7(2),75-86.

責任編輯: 時方  來源:果殼 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2021/0119/1547496.html