新聞 > 科教 > 正文

只要3秒 AI就能「複製人聲」盜你密碼

據「太陽報」(The Sun)報道,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音克隆人」,通常被用來竊取使用者的銀行資訊、身份或密碼。

詐騙集團只要3秒時間,就能透過AI複製真人聲音詐騙。(示意圖/ingimage)

AI技術日新月異,雖然提升了工作效率,卻也成為有心人士用來詐騙的工具。

據「太陽報」(The Sun)報道,AI風險評估公司Blackbird.AI共同創辦人哈利德(Wasim Khaled)表示,目前有詐騙集團利用AI技術,複製他人聲音進行「語音詐騙」,這種詐騙技巧稱之為「AI語音克隆人」,通常被用來竊取使用者的銀行資訊、身份或密碼。

哈立德說,「AI語音克隆人」的聲音不只跟真人難以區別,政商名流等公共人物更容易陷入被複製的危機。因為公共人物的語音樣本較多,讓AI更能透過深度學習做出真假難辨的音檔。

不僅如此,由於AI技術發展神速,只要在網絡上搜尋就能找到許多低成本甚至免費的供應商。防毒軟體McAfee的研究人員也發現,詐騙集團只需要花3秒鐘,就有辦法複製真人的聲音,利用這種技巧打給家人朋友來騙人。

哈立德說表示,如果能夠使用AI檢測技術來偵測音檔,就可能避免這類的詐騙發生,但短期內應該無法開發出可靠的檢測技術。

要避免語音詐騙,在親朋好友打電話緊急要求匯款、給予物品或其他金援時,應進一步跟本人確認。除此之外,民眾也應避免在網絡上分享個人資訊,以避免遭詐騙集團利用。

責任編輯: 時方  來源:世界日報 轉載請註明作者、出處並保持完整。

本文網址:https://hk.aboluowang.com/2023/0630/1921093.html