隨著神經網路 AI 技術的迅速發展,許多電腦視覺應用的精準度大幅提升。自 Google 於 2017 年推出 Transformer 架構以來,各大科技公司和學術機構基於此技術開發了眾多 AI 應用,從而正式開啟了生成式 AI(GenAI)時代。如今,生成式 AI 的飛速進步已席捲全球,通過學習海量數據,AI 能夠依據文字指令(Prompt)創造出多樣化的內容,為人類的創造力插上了新的翅膀。
然而,這些技術的進步不僅帶來了許多積極的應用,也引發了前所未有的挑戰,其中最具爭議的便是 Deepfake 技術。Deepfake 是由 "deep learning"(深度學習)與 "fake"(虛假)組合而成,意指利用深度學習技術生成虛假的影像、影片或聲音。這種技術可以模擬現實中某人的面部表情和聲音,創造出他們從未說過的話或做過的事,讓觀眾難以分辨真偽,從而引發混淆和誤解。
當 Deepfake 被合理運用時,能帶來顯著的價值。例如,在電影《星際大戰》中,透過 Deepfake 技術,已故的莉亞公主再度重現銀幕;在《玩命關頭》中,Deepfake 讓保羅·沃克的形象得以延續。同樣,NVIDIA(輝達)在 2021 年的 GTC21 發佈會上,也利用 Deepfake 技術生成 NVIDIA 執行長黃仁勳的演講片段,展示了未來生成式 AI 在行銷影片製作上的巨大潛力,讓製作流程更為簡化,成本大幅降低。此外,美國新創公司 HereAfter AI 甚至利用 Deepfake 技術,讓人們得以與過世的親人和朋友進行“對話”,為技術創造了更具人性化的應用場景。
NVIDIA(輝達)在 2021 年利用 Deepfake 技術生成 NVIDIA 執行長黃仁勳的演講片段
來源: CNET
Deepfake 作為一種強大的工具,若被不法分子濫用,將帶來巨大的負面影響。例如,烏克蘭 YouTuber Olga Loiek 就成為了這項技術的受害者。有心人士在 YouTube、小紅書等社交媒體平台上,利用她的臉部影像和聲音生成大量虛假影片,內容包括她表態支持俄羅斯或宣稱自己熱愛中國等虛構言論。這些影片完全不是出自她本人,卻成功誤導了許多觀眾,製造了錯誤的國際輿論。
烏克蘭Youtuber Olga Loiek揭露自身遭AI換臉進行親中宣傳
來源: Olga Loiek YouTube頻道
Deepfake 的危害不僅限於假新聞,還可能對政治和選舉造成嚴重干預。在 2024 年的美國總統選舉期間,已出現多起利用 Deepfake 技術製造假新聞的事件,這些虛假影像試圖干擾選民的判斷,對選舉公平性和民主制度造成巨大威脅。例如,前總統川普曾轉發一張利用 Deepfake 技術製造的照片,圖片顯示知名女星 Taylor Swift表態支持他的言論,這些偽造的內容極易誤導大眾,對選情產生不良影響。
前總統川普曾轉發一張利用 Deepfake 技術製造的圖片,顯示知名女星 Taylor Swift表態支持他的言論,這些偽造的內容極易誤導大眾
來源: TMZ
Deepfake 也被廣泛應用於犯罪活動,特別是在詐騙和侵犯隱私的案件中。台灣網紅「小玉」曾非法利用 Deepfake 技術,將超過百位台灣知名女性藝人、網紅和政治人物的臉部置換到色情影片中,並販賣牟利。這不僅對受害者的名譽造成嚴重損害,也帶來極大的心理創傷。
此外,Deepfake 技術還被用於商業詐騙。2024 年已知的兩起重大詐騙案件中,犯罪分子使用 Deepfake 技術生成虛假的視訊會議,模擬公司高層的聲音和影像,兩案件均騙取了高達 8 億台幣的資金。其中一件發生在 2024 年 5 月,一名國際工程顧問公司奧雅納(Arup)的財務人員以為自己正在與公司的財務長和其他員工進行視訊會議,實際上,這些影像和音訊全部是由駭客通過 Deepfake 技術即時生成的。會議結束後,該財務人員根據偽造的指示,匯出了超過 8.3 億新台幣的資金。
雖然換臉、影音編輯和後製技術早已存在,但 Deepfake 技術讓這些操作達到了全新高度,使得人眼難以辨別真假,甚至可以即時生成虛假內容。由於 Deepfake 工具可以輕易從網絡上下載使用,其潛在危害幾乎無法估量。
為了應對 Deepfake 深偽技術帶來的潛在風險,各國逐漸建立相關法規以規範其應用。歐盟的人工智慧法案( EU AI Act )明確規定,使用 Deepfake 技術的廠商必須在生成的影像中嵌入數位浮水印,讓檢測技術可以輕易辨別內容是否由 AI 生成。此外,個人、公司或組織若使用 Deepfake 技術,必須在生成的內容中清楚標示該內容為 AI 生成,讓觀眾能即時識別。
不僅歐盟,美國也制定了相應的法規來防範 Deepfake 帶來的風險。德州於 2019 年通過法律,禁止利用 Deepfake 技術製作或散佈政治相關的影像,旨在防止利用虛假影片攻擊候選人或干擾選舉結果。此外,加州的 AB 602 和 AB 730 法案明確限制 Deepfake 內容的濫用,尤其針對選舉和色情內容進行管控。
社交媒體平台也開始正視 Deepfake 的影響力,Facebook 自 2020 年起禁止用戶發布任何具有誤導意圖的生成影片,而 YouTube 也於 2023 年更新了其隱私政策和平台規範,針對 Deepfake 內容加強管理。然而,這類法規和政策主要針對守法者,對於那些惡意濫用深偽技術的不法分子,目前仍無法完全杜絕其惡意行為。
在台灣,金融監督管理委員會 (金管會)於 2023 年 10 月公佈了「金融業運用 AI 之核心原則及政策」,其中明訂,當銀行使用視訊會議辦理電子銀行業務時,必須確認參與者為真實個人,以防止通過科技手段進行身份偽造,例如預先錄製的影片、面具模擬影像或 Deepfake 技術偽冒身份。此外,相關視訊和交易過程的驗證記錄必須保留,以便日後查證,這一政策有效提高了金融業對 Deepfake 風險的防範能力。
eKYC(Electronic Know Your Customer,電子化認識你的客戶)是透過網路或數位技術遠端進行客戶身份驗證的程序,幫助提供服務的企業能快速且可信地了解並驗證客戶身份。這種 eKYC 技術廣泛應用於金融業、電商等領域,有助於提高業務效率和降低運營成本。
然而,在遠端收集客戶人臉影像的過程中,Deepfake 技術帶來了潛在的安全風險,駭客可能利用以下幾種方式來攻擊 eKYC 系統:
如果 eKYC 數位身份驗證流程中,允許客戶自行上傳照片,駭客可能會盜用他人的身份證件和照片,甚至使用 Deepfake 深偽技術生成假照片來冒用身份。在這種情況下,提供服務的業者難以有效偵測這些偽造影像,不僅需要花費大量人力來驗證資料的真實性,還會面臨更高的金融犯罪風險。
為了提升安全性,部分 eKYC 流程已經要求使用者即時控制相機自拍,以降低駭客利用他人照片冒用的風險。 然而,駭客還是有可能利用電腦或平板播放假冒的臉部照片或影片,甚至使用 Deepfake 技術生成對應的動態影片,再透過手機鏡頭進行欺騙。這種偽冒攻擊方式稱為「重現式攻擊」(PA, Presentation Attack)。儘管業者可以依賴即時人工審核來阻擋這類攻擊,但這無疑會大幅增加審核人員的工作負擔,並帶來效率上的挑戰。
最後,駭客也可能透過駭入 eKYC 所運行的裝置,植入 Deepfake 深偽生成的虛假影像串流。 這意味著,執行 eKYC 數位身份驗證的應用程式或網站會誤認為這些影像是真實場景中的人,但實際上這些影像全是偽造的。這類攻擊的技術門檻較高,大大增加身份偽冒的難度,但也讓防範變得更加複雜。雖然目前這種攻擊方式尚未大規模出現,但金融機構和其他需要進行 eKYC 驗證的企業,應當提早意識到這類風險,並採取相應的防護措施。
在 FaceMe eKYC 數位身份驗證流程中,FaceMe 採用了多種策略,有效防止 Deepfake 及其他各類可能的攻擊,確保數位身份驗證的結果高度可信、可靠且安全。FaceMe 的解決方案包括:
縱上所述,在 eKYC 身份驗證(Authentication)的過程中,除了必須防範 Deepfake 深偽技術的身份冒用攻擊,還需要應對其他形式的攻擊,例如重現式攻擊(PA,Presentation Attack)、偽造身份證、以及偽造人臉面具等。FaceMe 提供完整的防偽解決方案,能夠抵禦各種身份偽冒攻擊,為金融業和所有需要進行身份驗證的服務單位,提供可靠的防護。
FaceMe 不僅能幫助這些機構符合法規要求,更能進一步保障帳戶及交易的高度安全性,從而建立更安全、可信的數位身份驗證系統。選擇 FaceMe,就是選擇可靠性和安全性,確保您的業務在面對各種身份偽冒風險時仍能穩健運行。
我們全方位的防偽解決方案,將為您的數位身份驗證提供安全無虞的保障。