伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

亞馬遜人臉識(shí)別技術(shù)Rekognition被爆種族歧視

時(shí)間:2019-01-29 16:12:09點(diǎn)擊:336次

來源:獵云網(wǎng)

1月28日?qǐng)?bào)道(編譯:一晌貪歡)

與IBM、微軟的同類技術(shù)相比,亞馬遜的人臉分析軟件分辨某些人種性別的正確率較低。這是麻省理工學(xué)院(MIT)研究人員在近日發(fā)表的一項(xiàng)新研究中得出的結(jié)論,該研究發(fā)現(xiàn),在特定情況下,Rekognition(亞馬遜圖像識(shí)別技術(shù))無法可靠地辨別女性和深膚色人群。

該項(xiàng)研究的合著者稱,在2018年進(jìn)行的實(shí)驗(yàn)中,Rekognition錯(cuò)誤地將19%的女性圖像識(shí)別為男性,將31%的深膚色女性圖像識(shí)別為男性。相比之下,微軟在識(shí)別深色皮膚人群性別時(shí),將女性錯(cuò)認(rèn)為男性的比例只有1.5%。

亞馬遜對(duì)這項(xiàng)研究提出質(zhì)疑。它表示,Rekognition升級(jí)版的內(nèi)測結(jié)果顯示,該技術(shù)對(duì)于識(shí)別性別的正確率不存在人種差異。此外,亞馬遜認(rèn)為這篇論文沒有清楚地說明在實(shí)驗(yàn)中使用的置信度閾值,即Rekognition的判斷被認(rèn)為是正確而必須達(dá)到的最低精確度。

在給外媒的一份聲明中,亞馬遜云服務(wù)平臺(tái)深度學(xué)習(xí)和人工智能總經(jīng)理馬特·伍德博士(Matt Wood)對(duì)面部分析和面部識(shí)別這兩個(gè)概念進(jìn)行了區(qū)分:面部分析指的是在視頻或圖像中辨認(rèn)出臉部,并確定其一般屬性;而面部識(shí)別是將單個(gè)人臉與其它視像中的人臉相匹配。他說,根據(jù)“面部分析”的結(jié)果來判斷“面部識(shí)別”的準(zhǔn)確性是“不可行的”,而且他認(rèn)為這篇論文所談?wù)摰暮汀翱蛻羧绾问褂肦ekognition”是兩回事。

伍德博士說:“使用最新版本的Rekognition,從議會(huì)網(wǎng)站和Megaface人臉數(shù)據(jù)庫下載百萬張圖像數(shù)據(jù),我們發(fā)現(xiàn),置信度閾值設(shè)置為0.99時(shí),誤報(bào)數(shù)為零。我們通過錄入和反饋來不斷改進(jìn)這項(xiàng)技術(shù),且支持創(chuàng)建第三方評(píng)估、數(shù)據(jù)集、衡量基準(zhǔn)?!?

這是亞馬遜第二次被質(zhì)疑Rekognition存在偏見。

上一次在今年夏天,美國公民自由聯(lián)盟(American Civil Liberties Union)對(duì)Rekognition進(jìn)行了一項(xiàng)測試(亞馬遜質(zhì)疑該測試的準(zhǔn)確性):把25000張罪犯面部照片和國會(huì)議員的官方照片進(jìn)行比較。結(jié)果Rekognition將28名議員誤判成罪犯,其中有色人種的錯(cuò)判率占到38%。

無獨(dú)有偶。

2012年的一項(xiàng)研究顯示,Coigntec(德國從事生物特征識(shí)別技術(shù)的公司)的人臉識(shí)別程序在識(shí)別非裔美國人和白種人時(shí)存在差距,前者比后者的錯(cuò)判率高出5%到10%。2011年的一項(xiàng)研究顯示,中日韓開發(fā)的人臉識(shí)別模型難以區(qū)分白種人和東亞人。今年2月,麻省理工媒體實(shí)驗(yàn)室進(jìn)行的研究表明,微軟、IBM和北京曠視科技(Megvii)通過人臉識(shí)別性別的錯(cuò)誤率如下:7%的淺色皮膚女性和12%的深色皮膚男性被認(rèn)錯(cuò),而深色皮膚女性的錯(cuò)判率甚至高達(dá)35%。

弗吉尼亞大學(xué)(University of Virginia)進(jìn)行的另一項(xiàng)研究顯示,ImSitu和COCO(兩個(gè)知名的圖像數(shù)據(jù)集)在描述體育、烹飪和其它活動(dòng)時(shí)表現(xiàn)出性別偏見(其中COCO由Facebook、微軟和初創(chuàng)公司MightyAI共同贊助)。例如,購物圖片傾向于與女性相關(guān)聯(lián),而教練圖片則與男性相關(guān)聯(lián)。

也許最糟糕的一個(gè)例子是:2015年一位軟件工程師報(bào)告稱,谷歌照片的圖像分類算法將非裔美國人識(shí)別成“大猩猩”。

但是人臉識(shí)別技術(shù)的某些進(jìn)展也是令人鼓舞的。

今年6月,微軟與人工智能公平方面的專家合作,修訂并擴(kuò)展了用于培訓(xùn)Face API的數(shù)據(jù)集,Face API是微軟的一套算法程序,用于檢測、識(shí)別和分析圖像中的人臉。隨著新數(shù)據(jù)包含膚色、性別和年齡等信息,算法程序?qū)ι钅w色的男性和女性的錯(cuò)判率分別降低了20倍和9倍。

亞馬遜表示它一直在努力提高Rekognition識(shí)別的準(zhǔn)確性,最近一次重要技術(shù)升級(jí)在去年11月進(jìn)行。

伍德博士補(bǔ)充說:“我們?yōu)檫@一領(lǐng)域的學(xué)術(shù)研究提供了資金,也對(duì)自己的團(tuán)隊(duì)進(jìn)行了大量投資,而且努力還將繼續(xù)。我們致力于改善面部識(shí)別、面部分析,強(qiáng)調(diào)解釋結(jié)果時(shí)有很高的可信度,也會(huì)重點(diǎn)關(guān)注人工審查的作用、標(biāo)準(zhǔn)化測試等方面。我們感謝為改善這些技術(shù)做出貢獻(xiàn)的客戶和學(xué)者。"

下周在夏威夷檀香山(Honolulu)將舉行“人工智能、倫理和社會(huì)促進(jìn)會(huì)議”,而麻省理工學(xué)院的研究結(jié)果將在會(huì)上公布。

來源:獵云網(wǎng)

  • 標(biāo)簽: