阿波羅新聞網 新聞 > 科教 > 正文

你的聲音也能被偽造 媽媽都聽不出差別的那種!

最近有一項新的科技技術,用戶只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,甚至還可以通過社交媒體上傳至網絡上。

這種“深度偽造”不僅可以換臉,還可偽造聲音。而目前一些科技公司在面對深度偽造的視頻時,也顯得力不從心

這不禁讓人們擔憂,在深受網絡社交媒體追捧的“超級”新技術背後,可能有哪些安全隱患

語音合成“術”可以模擬任何人語音

彭博社記者萬斯使用電腦合成語音給他母親打了個電話,看看他母親能否發現?

彭博社記者萬斯:現在為了實驗一下,我的電腦合成音,我要給我親愛的媽媽打個電話,看看她是否能聽出來。

萬斯(合成音)嗨,媽媽,你們今天什麼安排?

萬斯的母親:今天一早家裡沒電了,我們正在房子里溜達。

萬斯(合成音)我剛剛下班,等着接兒子回家。

萬斯的母親:好的。

萬斯(合成音):我覺得我可能感染了病毒。

萬斯的母親:那你感覺不舒服,是嗎?

萬斯:哈哈。我剛才是和你搗亂,你剛才在和電腦說話。

萬斯的母親:我感覺在和你說話真是奇妙。

萬斯:你覺得嚇人還是覺得不錯。

萬斯的母親:如果涉及到非常重要的事情,真的挺嚇人的。

合成視頻以假亂真

深度偽造,是一種可以實時偽造面部表情,並將其渲染成2D合成視頻的人工智能技術。“DeepFake”深度偽造,也逐漸成為這一技術的代稱。

李浩是美國南加州大學的助理教授,“針幕動畫”公司的聯合創始人,這家公司推出的軟件可以讓用戶在玩虛擬現實遊戲和購物時,即時定製自己的三維虛擬化身。

“針幕動畫”聯合創始人李浩:現在我製作了一個你的化身。

美國公共廣播公司記者奧布萊恩:一個和藹整潔的奧布萊恩。

但隨着技術的發展,這樣的合成圖像或視頻,真實度越來越強,欺騙性也越來越強。對此,研發者也不無擔憂。

2018年1月,一個名為FakeApp的軟件上線,宣稱可以實現“一鍵換臉”。

雖然有的社交新聞站點比如Reddit網站,已明令禁止在自己的平台傳播換臉視頻和圖片,但仍有超過9萬名用戶在Reddit上傳播這類視頻。

計算機科學專家法里德:我擔心這項技術被武器化,還擔心它如何影響我們整個社會。

一些科技公司在面對“深度偽造”的視頻時,也顯得力不從心Instagram總裁莫里斯也在接受採訪時表示,目前業界還沒有大規模的數據或標準對這些假視頻進行檢測。

Instagram總裁莫斯里:目前,我們還沒有應對深度偽造的政策,我們正試着評估,是否願意這麼做。如果要做,又該如何定義深度偽造,我覺得此類事件並不好。

主持人蓋爾⋅金:你可以把視頻下架。

莫斯里:實際上,我想的不僅是把它撤下來,我認為問題在於,我們如何以有原則的方式,做到這一點。

如今,諸如指紋支付、人臉識別解鎖、聲音解鎖等,這些生物特徵識別技術已經滲透到我們日常生活當中。然而,當這些都能被“仿造”時,小到個人財產,大到國家安全,面臨的風險和隱患就越來越多。

技術是把雙刃劍,用對了地方會造福人類,用錯了地方,遺禍無窮。當新技術的能力越來越大的時候,每一項“超級”新技術的推廣應用都應當慎之又慎,該有的監管也要跟上。

阿波羅網責任編輯:夏雨荷 來源:每經網 轉載請註明作者、出處並保持完整。

科教熱門

相關新聞

➕ 更多同類相關新聞