伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

全球首款“反AI變臉刑偵檢測(cè)工具”,專用于檢測(cè)AI變臉/換臉造假技術(shù)

時(shí)間:2018-08-10 08:51:10點(diǎn)擊:537次

美國防部研發(fā)出了全球首款“反AI變臉刑偵檢測(cè)工具”,專用于檢測(cè)AI變臉/換臉造假技術(shù)。如今,以GAN為代表的AI換臉術(shù)盛行,相應(yīng)的人臉檢測(cè)識(shí)別技術(shù)也不得不提升,這僅僅是一場(chǎng)漫長(zhǎng)而又精彩的AI軍備競(jìng)賽的開始。

昨天,新智元介紹南加州大學(xué)“殺馬特教授”黎顥率領(lǐng)的Pinscreen團(tuán)隊(duì)的實(shí)時(shí)3D變臉技術(shù)后,引發(fā)了不少讀者的擔(dān)憂。

黎顥團(tuán)隊(duì)的實(shí)時(shí)變臉技術(shù):左邊是iPhone拍攝的圖像,右邊是實(shí)時(shí)生成的3D人臉。來源:fxguide.com

有人擔(dān)心,支付寶的人臉識(shí)別技術(shù)會(huì)因此失效,或者衍生出新的詐騙方法,犯罪者利用你的圖片冒充你跟另一個(gè)人聊天......

這些擔(dān)憂都是切實(shí)存在的,因?yàn)槿缃竦摹癆I變臉術(shù)”,已經(jīng)達(dá)到出神入化的境界,任何人利用AI軟件,幾乎都能做到模仿政治人物的臉,要是有一定技術(shù)的人,還能做到真假難辨的程度:

這些AI變臉工具,實(shí)際上都源自于生成對(duì)抗網(wǎng)絡(luò)(GAN)強(qiáng)大的圖像生成能力。

不過,現(xiàn)在美國國防部研究機(jī)構(gòu) DAPRA 研發(fā)出了首款“反變臉”的AI刑偵檢測(cè)工具,而其原理,也是以AI攻AI。

這款A(yù)I反變臉刑偵工具是 DARPA Media Forensics 計(jì)劃的一部分。早在今年 5 月,DARPA 便提出了要研發(fā)針對(duì)AI變臉技術(shù)的需求,讓現(xiàn)有的刑偵檢測(cè)工具變得自動(dòng)化,能夠檢測(cè)近來涌現(xiàn)的AI假臉。

DARPA Media Forensics 項(xiàng)目負(fù)責(zé)人 Matthew Turek 表示,他們?cè)贕AN生成的假臉中發(fā)現(xiàn)了一些細(xì)微的線索,由此檢測(cè)出圖像或視頻中的臉是真實(shí)的還是AI生成的。

還記得2016年,“3.15晚會(huì)”讓一張照片“騙過”人臉識(shí)別軟件,從而讓“人臉識(shí)別”一夜走紅大江南北。

如今,更加高級(jí)的AI變臉技術(shù)和偵測(cè)AI變臉技術(shù),也將展開一場(chǎng)長(zhǎng)期艱苦,但也精彩卓絕的AI軍備競(jìng)賽。

在2016年“3·15”晚會(huì)現(xiàn)場(chǎng),主持人使用了一項(xiàng) AI 技術(shù),把靜態(tài)的照片轉(zhuǎn)化成動(dòng)態(tài)照片,從而騙過登錄系統(tǒng)。這一技術(shù)在手機(jī)上就能實(shí)現(xiàn)

就看誰能走得更好更快。

美國防部研發(fā)出首款“反AI變臉”刑偵工具:準(zhǔn)確率高達(dá)99%

DARPA 的這款工具主要是基于紐約州立大學(xué)奧爾巴尼分校教授Siwei Lyu和他的學(xué)生 Yuezun Li 和 Ming-Ching Chang 的共同發(fā)現(xiàn),也即使用AI技術(shù)生成的假臉(一般通稱 DeepFake),極少甚至不會(huì)眨眼,因?yàn)樗鼈兌际鞘褂帽犙鄣恼掌M(jìn)行訓(xùn)練的。

“由于大多數(shù)訓(xùn)練數(shù)據(jù)集都不包含閉眼的人臉圖像,因此AI生成的人臉缺乏眨眼功能,”Lyu說:“因此,缺少眨眼是判斷一個(gè)視頻真假的好方法。”

論文詳細(xì)介紹了他們?nèi)绾谓M合兩個(gè)神經(jīng)網(wǎng)絡(luò),從而更有效地揭露哪些視頻是AI合成的。這些視頻往往忽略了“自發(fā)的、無意識(shí)的生理活動(dòng),例如呼吸、脈搏和眼球運(yùn)動(dòng)”。

通過有效地預(yù)測(cè)眼睛的狀態(tài),準(zhǔn)確率達(dá)到99%。

“我們還需要探索其他深度神經(jīng)網(wǎng)絡(luò)架構(gòu),以便更有效地檢測(cè)閉眼,“Lyu補(bǔ)充說:“我們目前的方法僅使用缺乏眨眼作為檢測(cè)AI篡改的提示。然而,也應(yīng)考慮動(dòng)態(tài)的眨眼模式——太快或頻繁眨眼,這種在生理上不太可能出現(xiàn)的現(xiàn)象也應(yīng)該被視為篡改的跡象。”

UAlbany的一組研究人員使用原始視頻上的眨眼檢測(cè)(上圖)和DeepFake生成的假視頻(下圖)來確定視頻是否是AI偽造的。在原始視頻中,在6秒內(nèi)檢測(cè)到眨眼動(dòng)作。來源:UAlbany.edu

參與DARPA挑戰(zhàn)賽的其他人也在探索類似的技巧,比如自動(dòng)檢測(cè)奇怪的頭部動(dòng)作、奇怪的眼睛顏色等等。

達(dá)特茅斯大學(xué)的數(shù)字取證專家Hany Farid 表示,目前的AI反變臉工具主要利用利用這類生理信號(hào),至少目前為止這些信號(hào)是很難被模仿的。

這些AI刑偵取證工具的帶來僅僅標(biāo)志著AI視頻偽造者和數(shù)字刑偵人員之間AI軍備競(jìng)賽的開始。

Hany Farid 表示,目前的一個(gè)關(guān)鍵問題是,機(jī)器學(xué)習(xí)系統(tǒng)可以接受更先進(jìn)的訓(xùn)練,然后超越當(dāng)前的反變臉工具。

DARPA“反AI變臉計(jì)劃”:確保偵測(cè)到最先進(jìn)的AI造假技術(shù)

DARPA 資助的 Media Forensics 計(jì)劃,旨在成功辨別由機(jī)器學(xué)習(xí)算法生成的虛假圖片和視頻。研究人員試圖開發(fā)出一種可擴(kuò)展的平臺(tái)化工具,對(duì)尤其是基于GAN 模型的“Deepfake”生成的假視頻和圖像進(jìn)行識(shí)別。

Deepfake很多時(shí)候會(huì)被用于生成一些明星或政客的惡搞視頻或剪輯,但也可能被用來惡意傳播虛假消息,以達(dá)到煽動(dòng)和制造混亂等危險(xiǎn)目的。

檢測(cè)數(shù)字化內(nèi)容的真假通常涉及三個(gè)步驟:

首先是檢查數(shù)字文件中是否有兩個(gè)圖像或視頻拼接在一起的跡象;

第二是檢查圖像的光照度等物理屬性,查找可能存在問題的跡象;

第三步最難自動(dòng)完成的,也可能是最棘手的,就是檢查圖像或視頻內(nèi)容在邏輯上是否存在矛盾,比如圖像顯示拍攝日期的天氣與實(shí)際天氣不符,或者拍攝位置的背景有問題等。

目前,對(duì)大量真假難辨的數(shù)字化內(nèi)容進(jìn)行辨別的工具或應(yīng)用仍缺乏廣泛的適用性,在涉及到取證、證據(jù)分析和鑒別等關(guān)系重大的應(yīng)用方向上,這類工具的可擴(kuò)展性和穩(wěn)健性都無法完全滿足實(shí)務(wù)中的需求。

DARPA的MediFor項(xiàng)目匯集了世界級(jí)的研究人員,試圖開發(fā)出能夠自動(dòng)評(píng)估圖像或視頻完整性的技術(shù),并將這些技術(shù)集成到端到端平臺(tái)上。如果該項(xiàng)目獲得成功,MediFor平臺(tái)將能夠自動(dòng)檢測(cè)對(duì)圖像或視頻的改動(dòng),并給出詳細(xì)信息,說明具體是如何改動(dòng)的,以及判斷視頻是否完整的理由,以便于決定是否能夠?qū)⒖梢蓤D像或視頻作為證據(jù)使用。

DARPA該項(xiàng)目負(fù)責(zé)人David Gunning表示:“從理論上講,如果你用現(xiàn)階段的全部技術(shù)來探測(cè)GAN生成的虛假結(jié)果,它就能學(xué)會(huì)繞開這些檢測(cè)技術(shù)。”不過,研究人員在對(duì)抗Deepfake時(shí)發(fā)現(xiàn)了一個(gè)重要弱點(diǎn),它生成的假視頻中的人從來都不眨眼,這是一個(gè)重要特征。這是因?yàn)镈eepfake用于生成的假視頻的訓(xùn)練模型都是靜止的圖片,而人在拍照時(shí),絕大多數(shù)情況下眼睛總是睜開的。

DARPA的研究人員表示,該機(jī)構(gòu)將繼續(xù)進(jìn)行更多測(cè)試來“確保開發(fā)中的識(shí)別技術(shù)能夠檢測(cè)到最新的造假技術(shù)。”

從Deepfake到HeadOn:換臉技術(shù)發(fā)展簡(jiǎn)史

DAPAR的擔(dān)憂并非空穴來風(fēng),如今的變臉技術(shù)已經(jīng)達(dá)到威脅安全的地步。最先,可能是把特朗普和普京弄來表達(dá)政治觀點(diǎn);但后來,出現(xiàn)了比如DeepFake,令普通人也可以利用這樣的技術(shù)制造虛假色情視頻和假新聞。技術(shù)越來越先進(jìn),讓AI安全也產(chǎn)生隱患。

1、Deepfake

我們先看看最大名鼎鼎的Deepfake是何方神圣。

Deepfake即“deep learning”和“fake”的組合詞,是一種基于深度學(xué)習(xí)的人物圖像合成技術(shù)。它可以將任意的現(xiàn)有圖像和視頻組合并疊加到源圖像和視頻上。

Deepfake允許人們用簡(jiǎn)單的視頻和開源代碼制作虛假的色情視頻、假新聞、惡意內(nèi)容等。后來,deepfakes還推出一款名為Fake APP的桌面應(yīng)用程序,允許用戶輕松創(chuàng)建和分享換臉的視頻,進(jìn)一步把技術(shù)門檻降低到C端。

特朗普的臉被換到希拉里身上

由于其惡意使用引起大量批評(píng),Deepfake已經(jīng)被Reddit、Twitter等網(wǎng)站封殺。

2、Face2Face

Face2Face同樣是一項(xiàng)引起巨大爭(zhēng)議的“換臉”技術(shù)。它比Deepfake更早出現(xiàn),由德國紐倫堡大學(xué)科學(xué)家Justus Thies的團(tuán)隊(duì)在CVPR 2016發(fā)布。這項(xiàng)技術(shù)可以非常逼真的將一個(gè)人的面部表情、說話時(shí)面部肌肉的變化、嘴型等完美地實(shí)時(shí)復(fù)制到另一個(gè)人臉上。它的效果如下:

Face2Face被認(rèn)為是第一個(gè)能實(shí)時(shí)進(jìn)行面部轉(zhuǎn)換的模型,而且其準(zhǔn)確率和真實(shí)度比以前的模型高得多。

3、HeadOn

HeadOn可以說是Face2Face的升級(jí)版,由原來Face2Face的團(tuán)隊(duì)創(chuàng)造。研究團(tuán)隊(duì)在Face2Face上所做的工作為HeadOn的大部分能力提供了框架,但Face2Face只能實(shí)現(xiàn)面部表情的轉(zhuǎn)換,HeadOn增加了身體運(yùn)動(dòng)和頭部運(yùn)動(dòng)的遷移。

也就是說,HeadOn不僅可以“變臉”,它還可以“變?nèi)恕薄鶕?jù)輸入人物的動(dòng)作,實(shí)時(shí)地改變視頻中人物的面部表情、眼球運(yùn)動(dòng)和身體動(dòng)作,使得圖像中的人看起來像是真的在說話和移動(dòng)一樣。

HeadOn技術(shù)的圖示

研究人員在論文里將這個(gè)系統(tǒng)稱為“首個(gè)人體肖像視頻的實(shí)時(shí)的源到目標(biāo)(source-to-target)重演方法,實(shí)現(xiàn)了軀干運(yùn)動(dòng)、頭部運(yùn)動(dòng)、面部表情和視線注視的遷移”。

4、Deep Video Portraits

Deep Video Portraits 是斯坦福大學(xué)、慕尼黑技術(shù)大學(xué)等的研究人員提交給今年 8 月SIGGRAPH 大會(huì)的一篇論文,描述了一種經(jīng)過改進(jìn)的 “換臉” 技術(shù),可以在視頻中用一個(gè)人的臉再現(xiàn)另一人臉部的動(dòng)作、面部表情和說話口型。

例如,將普通人的臉換成奧巴馬的臉。Deep Video Portraits 可以通過一段目標(biāo)人物的視頻(在這里就是奧巴馬),來學(xué)習(xí)構(gòu)成臉部、眉毛、嘴角和背景等的要素以及它們的運(yùn)動(dòng)形式。

5、paGAN:用單幅照片實(shí)時(shí)生成超逼真動(dòng)畫人物頭像

最新引起很大反響的“換臉”技術(shù)來自華裔教授黎顥的團(tuán)隊(duì),他們開發(fā)了一種新的機(jī)器學(xué)習(xí)技術(shù)paGAN,能夠以每秒1000幀的速度對(duì)對(duì)人臉進(jìn)行跟蹤,用單幅照片實(shí)時(shí)生成超逼真動(dòng)畫人像,論文已被SIGGRAPH 2018接收。

Pinscreen拍攝了《洛杉磯時(shí)報(bào)》記者David Pierson的一張照片作為輸入(左),并制作了他的3D頭像(右)。 這個(gè)生成的3D人臉通過黎顥的動(dòng)作(中)生成表情。這個(gè)視頻是6個(gè)月前制作的,Pinscreen團(tuán)隊(duì)稱其內(nèi)部早就超越了上述結(jié)果。

原文標(biāo)題:AI換臉終結(jié)者問世!美國防部推首款A(yù)I偵測(cè)工具,“反換臉”精度99%!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

  • 標(biāo)簽: