Lentis/Deepfakes
Deepfake是一種偽造的影像、影片或音訊錄製,旨在看起來和聽起來都很真實。Deepfake是使用動畫、面部識別和機器學習技術建立的。
基於計算機的面部動畫技術自20世紀70年代初就已存在,但它們缺乏用於製作現代Deepfakes的技術的真實感和便利性。[1]
1997年的“影片重寫”研究專案是朝著現代Deepfake技術發展的一個關鍵進步。“影片重寫”利用計算機視覺、面部動畫和現有素材來“自動建立一個人在原始素材中沒有說的話的新影片”。[2] 這將多種技術合成到一個單一的自動化過程中,為Deepfake生成應用程式鋪平了道路。
在影像或影片中跟蹤面部特徵是現代Deepfake技術的一個關鍵方面。2001年,加州大學伯克利分校的研究人員開發了一個計算機模型,將形狀對映到現有影像上,實現了這一目標。[3][4]
2000年代後期和2010年代初期,計算機處理能力、機器學習、面部識別和動畫技術取得了漸進式進步。[5][6][7]
2016年,斯坦福大學的研究人員提出了一種新穎的方法,用於“單目影片序列(例如YouTube影片)的即時面部重演”。[8] 這種技術將演員的嘴巴疊加到目標影片上。與舊方法相比,這是即時完成的,是Deepfake技術發展的一個里程碑。一年後,華盛頓大學的研究人員建立了一個程式,可以真實有效地改變目標影片的影片和音訊,使用個人電腦硬體在約45分鐘內生成一個66秒的Deepfake。[9] 這種方法的速度和質量,以及其在普通硬體上執行的能力,使得公眾能夠爆炸式地生成高質量的Deepfake。
隨著Deepfake技術的改進,Reddit使用者在“r/deepfakes”子版塊開始釋出原創Deepfake,FakeApp應用程式建立了一個“用於建立Deepfake的桌面工具”。[10]
現代Deepfake是透過在現有面部影像或影片上訓練神經網路來製作的。一旦網路學會了面部在不同表情和環境下的樣子,它就可以生成自己的面部Deepfake。[11] 遵循過去的趨勢,Deepfake的質量幾乎肯定會持續提高,直到人類無法分辨真實和生成的之間的任何區別。這可能會造成嚴重的資訊誤導,並給經常成為Deepfake主題的名人和公眾人物帶來問題。
Deepfake用於影片翻譯和庫存照片生成。Canny AI雖然將他們的服務稱為“影片對話替換”,並表示他們沒有建立Deepfake,但他們提供翻譯源影片和修改面部以使其看起來像是在說新語言的服務。[12] 一家國際企業可以使用Canny AI對高管用不同語言發表的演講進行Deepfake,而不是使用字幕。如果使用者能夠證明獲得同意,Canny AI還為名人模仿提供其服務。Generated.photos銷售人造生成的肖像,用於試用軟體、頭像、遊戲設計和廣告。他們還提供匿名化服務,為個人資料生成一張新面孔,該面孔“會讓你想起你的膚色、年齡、性別、[和]頭髮長度”。[13] 為了避免資料隱私問題,所有照片都是由公司拍攝的,而不是從網際網路上抓取的。[14]
Deepfake可能被濫用來建立未經他人同意的人員影像和影片。例如,迪士尼和YouTube頻道已經對已故演員進行了Deepfake。[15] 使用Generated.photos的遊戲開發者發現,“當需要刻畫不太討喜的角色時,合成照片特別有用”。[16] 除了遊戲之外,Deepfake還可以用來傳播不受歡迎的、有爭議的或危險的資訊。例如,一家公司可以建立一個虛假的高管來為失敗的商業計劃背黑鍋,或者一個政治競選活動可以建立對手方面的虛假影片。
Generated.photos和Canny AI都設有旨在防止使用者從事非法或惡意活動的條款和條件。但是,Deepfake程式的原始碼是公開可用的。[17] [18] Google Colab等雲平臺的免費層允許使用者從瀏覽器建立Deepfake。[19] 隨著Deepfake的質量和可訪問性不斷提高,它們很可能很快就會成為模仿和傳播虛假資訊的主流工具。
面部識別和語音合成允許不法分子假扮成他們不是的人。[20] 虛假的聲音可用於電話呼叫,從資料庫管理員那裡竊取受害者的私人資訊,例如使用者名稱或密碼。或者,不法分子可以使用Deepfake假扮成身份盜竊的受害者,以受害者的身份致電銀行或其他服務機構,以獲取私人資訊或將受害者的賬戶資金轉到他們自己的賬戶。目前的Deepfake技術使得語音合成攻擊在今天成為可能,並且只需要很少的語音資料。[21] Deepfake詐騙的著名例子包括一位CEO損失了243,000美元[22],以及一位寡婦向她認為是海軍上將的人提供了287,928美元。[23] Deepfake身份盜竊的有效性值得懷疑,因為在許多情況下,犯罪分子使用自己的聲音模仿他人更容易且更可信。
犯罪分子利用Deepfake勒索受害者,主要是女名人,索取金錢或資訊。犯罪分子可能會威脅釋出包含受害者面孔的色情影片來勒索受害者,儘管受害者從未參與其中。這種型別的勒索沒有簡單的解決方案。
儘管尚未成為普遍問題,但我們發現與深度偽造相關的對社會最大的威脅是其對新聞的潛在影響。透過深度偽造將錯誤資訊歸因於政治家或專家可能會被解讀為真實資訊。2018年,Buzzfeed釋出了一段影片,影片中展示了前總統巴拉克·奧巴馬的虛構版本,由喜劇演員喬丹·皮爾配音,貶低唐納德·特朗普。 [24] 該影片明確表示它是假的,並旨在提高人們對深度偽造對媒體的影響的認識。2020年4月,全球氣候倡導組織“滅絕叛亂”的比利時分部, [25] 釋出了一段比利時總理談論環境問題與新冠疫情危機的影片,許多人在揭露其為偽造之前都認為它是真實的。 [26]
達特茅斯學院教授哈尼·法裡德擔心深度偽造可能影響2020年總統大選,因此建立了一款軟體,能夠以95%的準確率檢測深度偽造。 [27] 這種技術在未來將成為避免虛假新聞的必要條件,但它仍然可能無法阻止人們相信它。
2019年6月,眾議院情報常設特別委員會主席希夫將深度偽造描述為“有能力擾亂整個競選活動,包括總統競選”,因為“不僅虛假影片可能被當作真實影片傳播,而且真實資訊也可能被當作虛假資訊傳播”。 [28] 防禦高階研究計劃局(DARPA)建立了媒體取證(MediFor)平臺,以自動檢測和識別被操縱的影像和影片。 [29] [30] 早期的工作涉及影像拼接等編輯技術,並在2019年向測試資料中添加了GAN輔助操縱。 [31]
2019年10月,美國參議院通過了2019年深度偽造報告法案,“要求國土安全部長髮布一份關於深度偽造技術使用的年度報告,以及其他目的”。 [32] 它還於2020年7月作為一項修正案被新增到2021財年國防授權法案(NDAA)中。 [33] 截至2020年11月,眾議院尚未透過獨立的法案或修正後的NDAA。在NDAA修正案之後,參議員羅布·波特曼(他同時是最初法案和修正案的發起人)評論說,“以人工智慧為基礎的威脅,例如深度偽造,已成為對我們民主日益增長的威脅”,並且“我們必須應對這一挑戰,並解決與公民自由和隱私相關的重大問題”。 [34]
MediFor和其他政府活動是否能夠成功應對現代深度偽造尚存疑問。較舊的媒體操縱依賴於修改源材料,但新技術可以從頭開始生成影像和影片。研究人員也在不斷提高其程式的質量。例如,第一版人臉生成程式StyleGAN在背景中存在模糊點和牙齒錯位,促使研究人員建立了改進版的StyleGAN2。 [35] 該程式碼可在GitHub上獲取。 [18]
以下是深度偽造的一些積極影響的示例。
深度偽造可用於建立腦部MRI的合成影像。 [36] 這些合成影像可用於研究阿爾茨海默病和腦腫瘤的形成。
語音合成技術(例如vocalid.ai) [37] 為使用者提供人工智慧生成的語音。這使那些無法說話的人有機會用獨特的合成語音進行交流。
深度偽造可用於聽到其他人用多種不同語言的聲音,而無需翻譯或字幕。2019年釋出的一段影片展示了大衛·貝克漢姆使用深度偽造技術用9種不同的語言講話,以提高人們對瘧疾的認識。 [38]
2018年,手機影片、監控攝像頭錄影和屍檢報告被用於數字重建犯罪現場,以協助解決基輔3名抗議者被謀殺案。 [39]
本案例研究主要關注深度偽造的背景及其一些應用。未來的研究人員將希望研究如何識別深度偽造, [40] [41] 如何製作深度偽造, [42] 以及合成音訊的進步。 [43] 可以對與深度偽造相關的訴訟以及法律體系的回應進行進一步調查。 [44] 由於深度偽造的發展速度很快,本案例研究中的一些資訊可能會過時。未來應重新調查本案例研究的幾乎所有方面,以瞭解發生了哪些變化。
- ↑ 面部動畫:過去、現在和未來。 http://web.cs.ucla.edu/~dt/papers/siggraph97-panel/siggraph97-panel.pdf
- ↑ 影片重寫:用音訊驅動視覺語音。 http://chris.bregler.com/videorewrite/
- ↑ 主動外觀模型。 https://people.eecs.berkeley.edu/~efros/courses/AP06/Papers/cootes-pami-01.pdf
- ↑ 主動外觀模型(AAM)。 http://ice.dlut.edu.cn/lu/AAM.html
- ↑ 技術進步。 https://ourworldindata.org/technological-progress
- ↑ 機器學習的歷史。 https://www.import.io/post/history-of-deep-learning/
- ↑ NIST評估顯示人臉識別軟體功能的進步。 https://www.nist.gov/news-events/news/2018/11/nist-evaluation-shows-advance-face-recognition-softwares-capabilities
- ↑ Face2Face:RGB影片的即時人臉捕捉和重演。 http://www.graphics.stanford.edu/~niessner/thies2016face.html
- ↑ 深度偽造簡史。 https://medium.com/@songda/a-short-history-of-deepfakes-604ac7be6016
- ↑ 深度偽造。 https://knowyourmeme.com/memes/cultures/deepfakes#fn2
- ↑ 什麼是深度偽造以及它們是如何建立的?
- ↑ Canny AI https://www.cannyai.com
- ↑ Generated.photos https://generated.photos
- ↑ Generated.photos 常見問題解答 https://generated.photos/faq
- ↑ Derpfakes 凱莉·費舍爾 https://www.youtube.com/watch?v=1chnCgya32o
- ↑ Generated.photos 使用案例 https://generated.photos/use-cases
- ↑ 優秀的Deepfakes Github https://github.com/aerophile/awesome-deepfakes
- ↑ a b StyleGAN2 Github https://github.com/NVlabs/stylegan2
- ↑ Google Colab 常見問題解答 https://research.google.com/colaboratory/faq.html
- ↑ 金融系統中的Deepfakes和合成媒體:評估威脅情景 https://carnegieendowment.org/2020/07/08/deepfakes-and-synthetic-media-in-financial-system-assessing-threat-scenarios-pub-82237
- ↑ 使用這款AI工具箱,五秒鐘克隆一個聲音 https://syncedreview.com/2019/09/03/clone-a-voice-in-five-seconds-with-this-ai-toolbox/
- ↑ https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=25eecd072241 https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=25eecd072241
- ↑ 詐騙犯使用Deepfake影片冒充美國海軍上將進行Skype聊天,騙取加州一位寡婦近30萬美元 https://www.dailymail.co.uk/news/article-8875299/Scammer-uses-deepfake-video-swindle-nearly-300-000-California-widow.html
- ↑ 你不會相信奧巴馬在這個影片裡說了什麼! https://www.youtube.com/watch?v=cQ54GDm1eL0
- ↑ 滅絕叛亂 https://www.extinctionrebellion.be/en/
- ↑ 滅絕叛亂接管Deepfakes https://journalism.design/deepfakes/extinction-rebellion-sempare-des-deepfakes/
- ↑ 在2020年美國大選之前,阻止Deepfake影片的鬥爭 https://www.cnn.com/2019/06/12/tech/deepfake-2020-detection/index.html
- ↑ 聽證會:人工智慧、操縱媒體和Deepfakes帶來的國家安全挑戰 https://intelligence.house.gov/calendar/eventsingle.aspx?EventID=653
- ↑ DARPA媒體取證(MediFor) https://www.darpa.mil/program/media-forensics
- ↑ MediFor Github 程式碼庫 https://github.com/mediaforensics/medifor
- ↑ 媒體取證挑戰評估概述 https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=930628
- ↑ 2019年Deepfake報告法案 https://www.congress.gov/bill/116th-congress/senate-bill/2065
- ↑ S.Amdt. 1891 — 第116屆國會(2019-2020) https://www.congress.gov/amendment/116th-congress/senate-amendment/1891
- ↑ 波特曼Deepfake新聞釋出會 https://www.portman.senate.gov/newsroom/press-releases/senate-passes-portman-schatz-amendment-assess-address-rising-threat
- ↑ StyleGAN2論文描述了相較於StyleGAN的改進 https://arxiv.org/abs/1912.04958
- ↑ 使用生成對抗網路進行醫學影像合成以進行資料增強和匿名化 https://arxiv.org/abs/1807.10225
- ↑ Vocalid.ai https://vocalid.ai/
- ↑ 貝克漢姆用九種語言發起“瘧疾必須死亡”語音請願 https://www.youtube.com/watch?v=QiiSAvKJIHo
- ↑ 誰殺害了基輔抗議者?一個3D模型掌握著線索 https://www.nytimes.com/2018/05/30/magazine/ukraine-protest-video.html
- ↑ Deepfake影片:如何檢測它們? https://www.ibtimes.com/deepfake-videos-how-detect-them-2712765
- ↑ 對抗Deepfake AI的最佳防禦可能是……眨眼 https://www.fastcompany.com/90230076/the-best-defense-against-deepfakes-ai-might-be-blinking
- ↑ 什麼是Deepfakes以及它們是如何建立的? https://spectrum.ieee.org/tech-talk/computing/software/what-are-deepfakes-how-are-they-created
- ↑ 我們能相信我們的耳朵嗎?專家表示,隨著音訊Deep Fake技術的進步,要謹慎行事 https://www.wbur.org/hereandnow/2020/09/28/deep-fake-video-audio
- ↑ 法院和律師難以應對Deepfakes日益增多的現象 https://www.abajournal.com/web/article/courts-and-lawyers-struggle-with-growing-prevalence-of-deepfakes