
興起中的深度偽造世界
深度偽造影片是一個混合詞:「深度」取自「深度學習」,而「偽造」顯然就是來自「偽造」。深度學習是一種先進的人工智慧 (AI) 方法,它使用多層機器學習演算法,循序漸進地從原始輸入中擷取高階特徵。它能够從非結構化資料(例如人臉)中學習。例如,AI 可以收集有關您身體移動的資料。
接下來,對該資料進行處理,以透過 GAN(生成對抗網路)建立深度偽造影片。這是另一種專用機器學習系統,採用兩個神經網路,以相互競爭的方式學習訓練集(例如人臉照片)的特徵,然後生成具有相同特徵的新資料(新的「照片」)。
由於這種網路會不斷根據訓練集測試其建立的影像,因此偽造的影像會變得越來越令人信服。深度偽造因而逐漸成爲一個極大的威脅。此外,GAN 也可以僞造照片和影片之外的其他資料。實際上,同樣的深度偽造機器學習和合成技術也可以用來僞造聲音。
深度偽造範例
深度偽造的著名範例並不罕見。其中一個深度偽造例子是演員喬登·皮爾 (Jordan Peele) 發佈的影片,在影片中,他將美國前總統奧巴馬的真實鏡頭與自己對奧巴馬的模仿相結合,向世人發出了有關深度偽造影片的警告。隨後,他秀出合併後影片的兩個部分分開後的樣子。他給了什麽建議呢?眼見未必爲真,務必提高警覺,小心查證。
有一個 Facebook 執行長馬克·祖克柏 (Mark Zuckerberg) 的影片,似乎在談論 Facebook 如何透過盜用的使用者資料(特別是在 Instagram 上)來「操控未來」。原影片是他關於美國干擾俄羅斯大選的一次演講,短短 21 秒的演講就足以合成新的影片。不過,這段影片中的聲音模仿不如喬登·皮爾模仿的奧巴馬,因此露出了馬脚。
但是,即使製作的僞造影片沒那麽精良,也可能會産生巨大影響。南希·佩洛西 (Nancy Pelosi) 的「酒醉演說」影片在 YouTube 上獲得了數百萬的觀看量。但實際上,這段影片只是透過人爲放慢影片播放速度的方式,造成其口齒不清而産生出來的效果。許多女性名人發現,有人爲了報復而將自己的臉孔合成到色情影片和影像中。
深度偽造威脅 - 欺騙和勒索
深度偽造影片已被用於政治目的以及個人打擊報復的用途,但也有越來越多的人將其用於影響更爲惡劣的勒索和詐騙企圖。
一家英國能源公司的執行長就因此而被騙了 243,000 美元,犯罪分子透過深度偽造技術,僞造了其母公司負責人的聲音,要求其緊急轉帳。由於偽造的聲音非常逼真,以致於這位高階主管甚至沒有想到求證;這筆資金沒有轉到總部,而是進入了第三方銀行帳戶。不過就在這個偽造的「老闆」再次要求這位執行長轉帳時,他産生了懷疑。這次,他的心中終於敲響了警鐘。但爲時已晚,已經轉出去的資金已經拿不回來了。
法國最近的一次詐騙行爲並未使用深度偽造技術,不過使用了冒名頂替的做法,詐騙者一絲不苟地模仿了外交部長尚·伊夫·勒德里安 (Jean-Yves le Drian) 的辦公室及其中的家具布置,從多位高階主管那邊騙得數百萬歐元。據稱,詐騙者 Gilbert Chikli 僞裝成部長,向富人和公司高層索討贖金,以「釋放被扣押在叙利亞的法國人質」。目前,這名詐騙者正在接受審判。
深度偽造的編造者也有可能威脅公司總裁,若不支付贖金就發布有害的深度偽造影片進行勒索。此外,入侵者也可以輕鬆合成您的資訊長的視訊通話,哄騙員工交出密碼和特殊權限,趁機進入您的網路,讓駭客有機會侵入您的敏感資料庫。
深度偽造色情影片也已經被用來勒索女性記者和新聞工作者,例如,曾經曝光過濫用權力的印度記者 Rana Ayyub。隨著技術成本日漸低廉,深度偽造被用於勒索和詐騙的情況勢必有增無減。
我們如何保護自己免於深度偽造的侵害?
人們已透過立法來著手因應深度偽造影片的威脅。例如,在美國加州,去年通過的兩項法案將深度偽造的某些方面界定爲非法。其中,AB-602 法案規定在未經目標個人同意的情况下,不得使用人類影像合成技術製作色情作品,而 AB-730 法案則規定在大選 60 天內,不得擅自篡改政治候選人的影像。
但這些措施的強度够嗎?幸運的是,網路安全公司一直設法提供更多更好的偵測演算法。這些演算法能分析影片影像,並發現在「僞造」過程中産生的微小變形失真。例如,目前的深度偽造合成器會針對 2D 人臉建立模型,然後對其進行變形處理,以適合影片中的 3D 視角;注意觀察鼻子的方向是關鍵所在。
目前,深度偽造影片仍處於您可以自行發現某些跡象的階段。請留意深度偽造影片的以下特徵:
- 不自然的一舉一動
- 畫面之間的照明光線變化
- 膚色改變
- 怪異的眨眼或完全不眨眼
- 嘴唇的動作和說話嚴重不同步
- 影像中有數位人工製品
但是,隨著深度偽造技術的不斷進步,透過自行目測所能發現的跡象只會越來越少,所以更需要加重仰賴出色的網路安全程式。
先進防僞技術的狀況
當今,有一些新興技術正在協助影片製作者來驗證其影片。有一種加密演算法或許可以使用,在影片中依設定的間隔插入雜湊值;如果影片遭到竄改,這些雜湊值將會改變。AI 和區塊鏈技術可以爲影片註冊防篡改的數位指紋,這種方式跟文件加上浮水印很類似;不過影片的困難點在於,如果要壓縮影片以用於不同的轉碼器,那麽就需要設法留下雜湊值。
抵禦深偽攻擊的另一種方法,是使用程式在影片中插入特別設計過的數位「人工製品」,以掩蓋人臉偵測軟體使用的像素模式。這類內容會降低深度偽造演算法的速度,並導致其獲得品質不佳的結果,進而降低成功進行深度偽造的機會。
良好的安全程序是最好的防護機制
然而,技術並非防範深度偽造影片的唯一方法,良好的基本安全程序在抵禦深度偽造方面非常有效。
例如,在任何分配資金的流程內,內建自動檢查機制,這樣就能攔截許多深度偽造和類似的詐騙行爲。您也可以這樣做:
- 確保員工和家人瞭解深度偽造的運作原理及其帶來的挑戰。
- 訓練自己和他人如何識別深度偽造影片。
- 確保您具有媒體方面的素養,並使用高品質的新聞來源。
- 採用良好的基本通訊協定:「信任,但要查證」。對語音郵件和影片保持質疑態度,並不能保證您永遠不會被騙,但確實可以幫您避開許多陷阱。
切記,如果駭客開始嘗試使用深度偽造入侵家庭和企業網路,那麽為了將風險降至最低,基本的網路安全最佳實務將扮演重要角色:
- 定期備份不但可保護您的資料免於勒索軟體的侵害,也可以讓您還原損壞的資料。
- 爲不同的帳戶使用不同的高強度密碼,這樣,即便有一個網路或服務遭遇入侵,其他網路或服務也可能安全無憂。如果有人侵入您的 Facebook 帳戶,您一定不希望他們也能侵入您的其他帳戶。
- 使用優秀的安全産品套件(例如卡巴斯基專業版),保護家庭網路、筆記型電腦和智慧型手機免於網路威脅的侵擾。這個套件提供防毒軟體、防止您的 Wi-Fi 連線遭駭的 VPN,以及對網路攝影機的安全保護。
深度偽造的未來會如何發展?
深度偽造技術一直在進化中。兩年前,僅僅透過影片中人物笨拙的動作和似乎從不眨眼,就可以輕鬆判斷出這是深度偽造影片。然而,最新一代的僞造影片已經取得長足進步,應變力顯著增強。
目前,網路上大約有超過 15,000 個深度偽造影片。有些只是爲了好玩,有一些則是試圖操控您的觀點。如今,製作一個新的深度偽造只需一兩天時間,因此這類影片的數量很可能會迅速增加。
推薦產品