伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

無(wú)標(biāo)簽數(shù)據(jù)如何提升人臉識(shí)別性能

時(shí)間:2019-01-10 15:57:40點(diǎn)擊:399次

隨著模型越來(lái)越深,標(biāo)注數(shù)據(jù)越來(lái)越難增加,人臉識(shí)別可能遇到瓶頸。本文來(lái)自MMLab香港中文大學(xué)-商湯科技聯(lián)合實(shí)驗(yàn)室,提出一種有監(jiān)督的Metric用于人臉聚類,來(lái)部分解決無(wú)標(biāo)注數(shù)據(jù)內(nèi)部結(jié)構(gòu)復(fù)雜、依賴特定Metric、缺乏Outlier控制,以及時(shí)間復(fù)雜度等問(wèn)題。

人臉識(shí)別也許是最成功也最先到達(dá)瓶頸的深度學(xué)習(xí)應(yīng)用。在Go Deeper, MoreData,Higher Performance的思想指導(dǎo)下,模型更深了,數(shù)據(jù)卻越來(lái)越難增加。目前在人臉的公開(kāi)數(shù)據(jù)集標(biāo)到了百萬(wàn)級(jí)別,人臉識(shí)別百萬(wàn)里挑一的正確率達(dá)到99.9%(MegaFace Benchmark)之后,發(fā)現(xiàn)再也標(biāo)不動(dòng)了。標(biāo)注員能標(biāo)出來(lái)的數(shù)據(jù)永遠(yuǎn)是簡(jiǎn)單樣本,而人臉識(shí)別模型是個(gè)“深淵”,當(dāng)你凝視“深淵”的時(shí)候,“深淵”并不想看到你。

“深淵”想看到這樣的數(shù)據(jù),并且明確被告知不是同一個(gè)人:

以及這樣的數(shù)據(jù),并且明確被告知是同一個(gè)人:

在把標(biāo)注員弄瘋之前,不如先讓模型自己去猜一猜,說(shuō)不定就猜對(duì)了呢?這其實(shí)就是半監(jiān)督學(xué)習(xí)的思路。利用已有的模型對(duì)無(wú)標(biāo)簽數(shù)據(jù)做某種預(yù)測(cè),將預(yù)測(cè)結(jié)果用來(lái)幫助模型訓(xùn)練。這種自我增強(qiáng)(Self-Enhanced)的學(xué)習(xí)方式,雖然看起來(lái)有漂移(Drift)的風(fēng)險(xiǎn),但實(shí)際用起來(lái)還挺好用 [5]。對(duì)于閉集(Close-Set)的問(wèn)題,也就是所有數(shù)據(jù)都屬于一個(gè)已知的類別集合(例如ImageNet, CIFAR等),只需要模型能通過(guò)各種方法,例如標(biāo)簽傳播(labelPropagation)等,預(yù)測(cè)出無(wú)標(biāo)簽數(shù)據(jù)的標(biāo)簽,再把它們加入訓(xùn)練即可。

然而問(wèn)題來(lái)了,人臉識(shí)別是一個(gè)開(kāi)集(Open-Set)的問(wèn)題。

例如,人臉比對(duì)(Verification)、人臉鑒定(Identification)等任務(wù)中,測(cè)試樣本的身份(Identity)通常沒(méi)有在訓(xùn)練樣本中出現(xiàn)過(guò),測(cè)試過(guò)程通常是提取人臉特征進(jìn)行比對(duì),而非直接通過(guò)網(wǎng)絡(luò)推理得到標(biāo)簽。同樣,對(duì)于無(wú)標(biāo)注數(shù)據(jù),在采集的過(guò)程中,人臉的身份也是未知的??赡苡袠?biāo)注的數(shù)據(jù)的人臉屬于10萬(wàn)個(gè)人,而新來(lái)的無(wú)標(biāo)注數(shù)據(jù)屬于另外10萬(wàn)個(gè)人,這樣一來(lái)就無(wú)法通過(guò)預(yù)測(cè)標(biāo)簽的方式把這些數(shù)據(jù)利用起來(lái)。而聚類不同于半監(jiān)督學(xué)習(xí),只需要知道樣本的特征描述(Feature)和樣本之間的相似度度量標(biāo)準(zhǔn)(Metric)就可以做聚類。聚完類之后再給每個(gè)類分配新的標(biāo)簽,同樣可以用來(lái)幫助提升人臉模型。

人臉聚類方法

傳統(tǒng)的人臉聚類一般采用LBP、HOG之類的手動(dòng)設(shè)計(jì)的特征,因?yàn)檫@類特征過(guò)于過(guò)時(shí),不在我們討論的范疇。而深度學(xué)習(xí)時(shí)代的人臉聚類,一般采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)中提取出來(lái)的特征 [4]。人臉識(shí)別的CNN通常把人臉圖片映射(Embedding)到一個(gè)高維的向量,然后使用一個(gè)線性分類器,加Softmax激活函數(shù)和交叉熵?fù)p失(Cross Entropy Loss)來(lái)訓(xùn)練。

紫色的向量即為人臉特征(圖片來(lái)自 [3])

這種方式?jīng)Q定了這些經(jīng)過(guò)映射(Embedding)后的人臉在特征空間里分布在不同的錐形(Cone)中(下左圖),因而可以使用余弦相似度(Cosine Similarity)來(lái)度量相似度?;蛘呷绻麑?duì)人臉特征做二范數(shù)(L2)歸一化,那么人臉特征則會(huì)分布在一個(gè)球面上(下右圖),這樣可以使用L2距離來(lái)度量。

圖示為2維,實(shí)際在高維空間(圖片來(lái)自 [6])

有了特征和度量標(biāo)準(zhǔn)之后,就可以考慮如何選擇一個(gè)聚類算法了。現(xiàn)成的聚類算法包括K-Means,Spectral, DBSCAN, Hierarchical Agglomerative Clustering (HAC), Rank Order等以及它們的變種。利用這些方法聚類之后,將每一類中的樣本分配相同的標(biāo)簽,不同的類分配不同的標(biāo)簽,就可以用來(lái)充當(dāng)訓(xùn)練集了。

到此為止,似乎已經(jīng)可以順利地完成這個(gè)任務(wù)了。然而

使用20萬(wàn)張圖提取特征之后來(lái)測(cè)試一下這些聚類算法,K-Means花了10分鐘,HAC花了5.7小時(shí),DBSCAN花了6.9小時(shí), Spectral花了12小時(shí)。若使用60萬(wàn)張圖片提取的特征來(lái)做聚類,K-Means超內(nèi)存了,HAC花了61小時(shí),DBSCAN花了80小時(shí),Spectral跑到天荒地老之后也甩了一句超內(nèi)存。當(dāng)圖片數(shù)量增加到140萬(wàn)的時(shí)候,幾乎所有的聚類算法都掛了。

K-Means, Spectral, HAC等傳統(tǒng)聚類方法的問(wèn)題主要在于以下方面:

(a) 聚類算法具有較高的時(shí)間復(fù)雜度。例如,K-Means是O(NKT),Spectral是O(N^3),HAC是O(N^2)。

(b) 通常認(rèn)為數(shù)據(jù)分布服從某些簡(jiǎn)單的假設(shè)。例如,K-Means假設(shè)數(shù)據(jù)類內(nèi)具有球狀的分布 [2],并且每一類具有相同的方差(Ariance),以及不同的類具有相同的先驗(yàn)概率。然而對(duì)于大規(guī)模人臉聚類,無(wú)標(biāo)注數(shù)據(jù)通常來(lái)源于開(kāi)放的場(chǎng)景(in-the-wild),數(shù)據(jù)內(nèi)部的結(jié)構(gòu)比較復(fù)雜,難以一致地服從這些假設(shè)。例如,我們期望數(shù)據(jù)長(zhǎng)這樣(如下左圖):

(c) 通常使用某種特定的Metric。例如上述提及的Cosine Similarity和L2距離。同樣,對(duì)于復(fù)雜的數(shù)據(jù)結(jié)構(gòu),衡量?jī)蓚€(gè)樣本是否屬于同一類,單純靠樣本之間的局部相似度是不夠的,這個(gè)metric需要融合更多信息。

(d) 缺乏較好的離群值(Outliers)控制機(jī)制。Outliers來(lái)源于人臉識(shí)別模型對(duì)難樣本的Embedding誤差,以及觀測(cè)到的數(shù)據(jù)不完整。盡管部分聚類算法例如DBSCAN理論上對(duì)Outliers魯棒,但從其實(shí)際表現(xiàn)來(lái)講這個(gè)問(wèn)題遠(yuǎn)沒(méi)有得到解決。

有監(jiān)督的Metric

終于可以說(shuō)說(shuō)自己的工作了。我們被ECCV2018接收的一篇論文(Consensus-Driven Propagation in Massive Unlabeled Data for FaceRecognition),簡(jiǎn)稱CDP [1],嘗試解決上述這些問(wèn)題中的一部分。我們提出了一種有監(jiān)督的Metric用于人臉聚類,來(lái)部分解決無(wú)標(biāo)注數(shù)據(jù)內(nèi)部結(jié)構(gòu)復(fù)雜、依賴特定Metric、缺乏Outlier控制的問(wèn)題,順便還解決了一下時(shí)間復(fù)雜度的問(wèn)題(CDP做到了線性復(fù)雜度),當(dāng)然性能也提升了一大截。

介紹方法之前我們先來(lái)介紹一下Affinity Graph。Graph在半監(jiān)督學(xué)習(xí)和聚類上經(jīng)常出現(xiàn)。Affinity Graph的節(jié)點(diǎn)是數(shù)據(jù)樣本,邊代表數(shù)據(jù)之間的相似度。一種常見(jiàn)的Affinity Graph是KNN Graph,即對(duì)所有樣本搜索K近鄰之后將樣本與其近鄰連接起來(lái)得到。我們的方法CDP基于KNN Graph來(lái)構(gòu)建數(shù)據(jù)的結(jié)構(gòu)。

CDP本質(zhì)是學(xué)習(xí)一個(gè)Metric,也就是對(duì)樣本對(duì)(Pairs)進(jìn)行判斷。如下圖,CDP首先使用多個(gè)人臉識(shí)別模型構(gòu)建成一個(gè)委員會(huì)(Committee), Committee中每個(gè)成員對(duì)基礎(chǔ)模型中相連的Pairs提供包括關(guān)系(是否是Neighbor)、相似度、局部結(jié)構(gòu)等信息,然后使用一個(gè)多層感知機(jī)(MLP)來(lái)整合這些信息并作出預(yù)測(cè)(即這個(gè)Pair是否是同一個(gè)人)。

這個(gè)過(guò)程可以類比成一個(gè)投票的過(guò)程,Committee負(fù)責(zé)考察一個(gè)候選人(Pair)的各方面信息,將信息匯總給MLP進(jìn)行決定。最后將所有的Positive Pairs組成一個(gè)新的Graph稱為Consensus-driven Graph。在此Graph上使用簡(jiǎn)單的連通域搜索并動(dòng)態(tài)剪枝即可快速得到聚類。由于MLP需要使用一部分有標(biāo)簽的數(shù)據(jù)來(lái)訓(xùn)練得到,所以CDP是一種基于有監(jiān)督的Metric的聚類方法。

CDP框架

接下來(lái)就是激fei動(dòng)chang人wu心liao的結(jié)果分析了。

在復(fù)雜度上,CDP由于只需要探索局部結(jié)構(gòu),因此除了KNN搜索之外,聚類部分的復(fù)雜度是接近線性的。在20萬(wàn)數(shù)據(jù)上,不計(jì)入KNN搜索(依賴別的庫(kù))的時(shí)間的話,CDP單模型的耗時(shí)是7.7秒,多模型的耗時(shí)是100秒。在140萬(wàn)數(shù)據(jù)上,CDP單模型的耗時(shí)是48秒,多模型的耗時(shí)是585秒。試驗(yàn)結(jié)果上看時(shí)間復(fù)雜度甚至低于線性(小于7倍)。

在聚類結(jié)果上,例如對(duì)20萬(wàn)數(shù)據(jù)聚類,即使使用單模型也達(dá)到了89%的fsCore,多模型可以達(dá)到95.8%,強(qiáng)于大部分傳統(tǒng)聚類算法。各種聚類算法運(yùn)行時(shí)間和性能測(cè)試見(jiàn)GitHub。

我們的實(shí)驗(yàn)中使用CDP聚類后的數(shù)據(jù)加入人臉識(shí)別模型的訓(xùn)練之后,可以讓模型達(dá)到接近全監(jiān)督(使用Ground Truth標(biāo)簽)的結(jié)果。如下圖所示:

在兩個(gè)測(cè)試集(Benchmark)上,隨著數(shù)據(jù)的增多,用CDP聚類結(jié)果訓(xùn)練的人臉模型性能的增長(zhǎng)接近全監(jiān)督模型(所有數(shù)據(jù)都使用Groundtruth標(biāo)注)。有趣的是在IJB-A上我們的結(jié)果超過(guò)了全監(jiān)督模型,原因可能是訓(xùn)練集的Ground Truth標(biāo)簽會(huì)有一些噪聲(Noise),例如誤標(biāo)注,導(dǎo)致全監(jiān)督模型在IJB-A的某些測(cè)試樣例上表現(xiàn)不佳。

下圖是切換不同的CNN模型結(jié)構(gòu)后的結(jié)果:

聚類后的部分結(jié)果如下圖所示:

每一組代表聚完類后屬于同一類

我們發(fā)現(xiàn)CDP還可以用來(lái)做數(shù)據(jù)和標(biāo)簽清理(Denoise)。例如一個(gè)標(biāo)注好的數(shù)據(jù)集可能有一些標(biāo)錯(cuò)的樣本,或者非常低質(zhì)量的圖片,可以使用CDP來(lái)找到這些圖并舍棄。如下圖:

每一組人臉在原始標(biāo)注中屬于同一個(gè)人,左上角數(shù)字是CDP分配的標(biāo)簽,紅框中的樣本為CDP丟棄的樣本,包括:1. 被錯(cuò)誤標(biāo)注進(jìn)該類,實(shí)際是一個(gè)孤立點(diǎn)的樣本。2. 低質(zhì)量圖片,包括過(guò)度模糊、卡通等。

在這篇工作中我們發(fā)現(xiàn),基于學(xué)習(xí)的Metric能基于更多的有效信息進(jìn)行判斷,會(huì)比手動(dòng)設(shè)計(jì)的Metric更擅長(zhǎng)解決比較復(fù)雜的數(shù)據(jù)分布。另外,這種類似多模型的投票的方式在魯棒性上帶來(lái)了很大提升,這樣可以從無(wú)標(biāo)簽數(shù)據(jù)中發(fā)掘出更多的難樣本。

原文標(biāo)題:人臉聚類那些事兒:利用無(wú)標(biāo)簽數(shù)據(jù)提升人臉識(shí)別性能

文章出處:【微信號(hào):SenseTime2017,微信公眾號(hào):商湯科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

  • 標(biāo)簽: