伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

紐約大學(xué)AI NOW:“情感識別”只是人相的程序化,一種來自上世紀(jì)的偽科學(xué)

時(shí)間:2018-12-29 12:15:20點(diǎn)擊:576次

對于許多人來說,人臉識別已經(jīng)迅速從技術(shù)創(chuàng)新階段轉(zhuǎn)變?yōu)樯钍褂?因?yàn)槿澜缰辽儆袛?shù)百萬人愿意忍受機(jī)場、iPhone或Facebook應(yīng)用場景中用軟件掃描他們的面孔。

但最近紐約大學(xué)AI Now研究所的研究人員發(fā)出強(qiáng)烈警告,不僅針對如今無處不在的人臉識別應(yīng)用,還有其更邪惡的表親:所謂的情感識別技術(shù)。該技術(shù)可以通過你鼻子的形狀,嘴巴的輪廓和你微笑的方式找到你內(nèi)心隱藏的信息。

這聽起來像是來自從19世紀(jì)開始挖掘的理論,確實(shí)如此。

AI Now日前發(fā)布了一份長達(dá)56頁的2018年AI發(fā)展報(bào)告,重點(diǎn)說明了人工智能發(fā)展過程中的重大問題。其將“人工智能”稱為,一個(gè)包含眾多學(xué)科嘗試模擬人類判斷和營銷炒作的總稱——在沒有監(jiān)管且有效的道德審查的情況下持續(xù)發(fā)展。

該報(bào)告重點(diǎn)論述了人工智能領(lǐng)域眾多被廣泛使用和濫用的行為,包括種族歧視、警察監(jiān)視以及商業(yè)秘密法如何隱藏AI監(jiān)督公眾中的爭議代碼。

AI Now于去年成立,旨在解決人工智能的社會(huì)情感問題,在這篇新發(fā)布的報(bào)告中,重點(diǎn)表達(dá)了人們對情感識別的恐懼和擔(dān)憂。

作為“人臉識別的一個(gè)子學(xué)科,情感識別可以基于人臉圖像或視頻檢測(發(fā)現(xiàn))其個(gè)性,內(nèi)心感受,心理健康情況。

想象一下,你的老板通過使用機(jī)器學(xué)習(xí)相機(jī)來不斷評估你的工作精神狀態(tài),警察基于你的面部“微表情”,借助“情感識別”技術(shù)來推斷你未來的犯罪行為......

“利用機(jī)器視覺和海量數(shù)據(jù)分析技術(shù)來發(fā)現(xiàn)事物相關(guān)性的能力將會(huì)引發(fā)一些可怕的結(jié)果。”

報(bào)告解釋說,這是因?yàn)椤扒楦凶R別”技術(shù)只不過是人相的計(jì)算機(jī)化,是一種來自另一個(gè)時(shí)代被揭穿的偽科學(xué),即一個(gè)人的性格可以從他們的身體 - 尤其是他們的面孔中辨別出來。

在19世紀(jì)80年代,這一理論還每被認(rèn)為是偽科學(xué),后來,聲名狼藉的意大利犯罪學(xué)家切薩雷·隆布羅索(Cesare Lombroso)推動(dòng)了這一理論,今天很多人開始相信它是對的了:它缺乏科學(xué)基礎(chǔ),但很多人認(rèn)為它是一個(gè)有吸引力的想法。

而如今數(shù)據(jù)導(dǎo)向型的公司已經(jīng)抓住這個(gè)機(jī)會(huì),不僅將名字與面孔關(guān)聯(lián),甚至將人的整個(gè)行為模式和預(yù)測歸結(jié)為眉毛和鼻子之間的某種無形關(guān)系,而這種關(guān)系能通過計(jì)算機(jī)的“眼睛”來破譯。

早在兩年前,上海交大的學(xué)生發(fā)表的一篇論文稱他們發(fā)明了一種僅根據(jù)人臉特征識別犯罪行為的機(jī)器學(xué)習(xí)算法。這篇論文受到了業(yè)界的廣泛批評,其中包括AI Now的Kate Crawford,他告訴The Intercept它構(gòu)成的“ 文字顱相學(xué)......的依據(jù)只是使用現(xiàn)代的監(jiān)督機(jī)器學(xué)習(xí)工具而不是“卡尺”。

Crawford以及她的同事比以往更加反對這種基于文化和科學(xué)的回歸算法預(yù)測的傳播。報(bào)告稱 “雖然人相學(xué)以及與其關(guān)系密切的納粹種族“科學(xué)”失去地位,但是研究人員仍然擔(dān)心人相學(xué)的思想會(huì)在情感識別應(yīng)用中死灰復(fù)燃。

“AI系統(tǒng)能夠告訴我們學(xué)生、客戶或犯罪嫌疑人的真實(shí)感受或者他們本質(zhì)上是什么類型的人,這種思想對公司和政府非常具有吸引力,盡管這種主張的科學(xué)理由非常值得懷疑,但其差別對待的歷史也被較好的記載?!?

在一封致The Intercept的電子郵件中,Crawford(AI Now聯(lián)合創(chuàng)始人兼紐約大學(xué)的杰出研究教授)與Meredith Whittaker(AI Now聯(lián)合創(chuàng)始人兼紐約大學(xué)杰出研究科學(xué)家)通過介紹兩家利用外貌特征來得出關(guān)于人的重大結(jié)論的公司為例子(反例),解釋了為什么情感識別在當(dāng)下的發(fā)展比以往更令人擔(dān)憂。

Crawford 認(rèn)為,“從Faception公司聲稱他們可以通過人臉識別恐怖分子 到 HireVue公司 通過分析面試過程中錄制的面試者的面部微表情以預(yù)測他們將來是否會(huì)成為一名優(yōu)秀的員工,使用機(jī)器視覺和大規(guī)模數(shù)據(jù)分析挖掘事物相關(guān)性的能力將會(huì)引發(fā)一些非常令人疑惑的主張。

Faception 據(jù)稱可以從外貌上確定某人是否“心理上不平衡”、焦慮或有魅力,而HireVue則在相同基礎(chǔ)上對求職者進(jìn)行排名。

與一些自動(dòng)化的、無形判斷和決策的計(jì)算機(jī)系統(tǒng)一樣,情感識別技術(shù)出現(xiàn)錯(cuò)誤分類、標(biāo)記的可能性是非常大的,特別是在基于薄弱科學(xué)基礎(chǔ)的情況下:“這些被系統(tǒng)描述的人如何競爭結(jié)果?,“Crawford補(bǔ)充道。

“當(dāng)我們依靠“黑盒子”AI系統(tǒng)識別人類的'內(nèi)在生活'或價(jià)值時(shí)將會(huì)發(fā)生什么?其中一些產(chǎn)品引用了極具爭議性的理論,這些理論在心理學(xué)文獻(xiàn)中長期存在爭議,但卻被人工智能創(chuàng)業(yè)公司視為事實(shí)?!?

更糟糕的是,科學(xué)對攝像機(jī)范圍內(nèi)的任何人做出判斷的是,制定這些決策的算法由算法開發(fā)公司保密,且不受商業(yè)秘密的嚴(yán)格審查。AI Now的Whittaker指出公司機(jī)密正如被混淆了的且問題累累的情感識別實(shí)踐:“因?yàn)榇蠖鄶?shù)這些技術(shù)都是由私人公司開發(fā)的,這些公司是根據(jù)公司保密法運(yùn)作的,報(bào)告強(qiáng)烈建議保護(hù)這些技術(shù)中的道德舉報(bào)者。

Whittaker寫道,“這樣的舉報(bào)至關(guān)重要,因?yàn)樵S多數(shù)據(jù)公司將隱私和透明視為一種責(zé)任,而不是一種美德:”雖然理由各不相同,但大多數(shù)[人工智能開發(fā)人員]不承擔(dān)所有責(zé)任,并且要由客戶決定如何處理它?!皞慰茖W(xué)與最先進(jìn)的計(jì)算機(jī)工程相結(jié)合,并且沒有問責(zé)制。 怎么可能出錯(cuò)?

原文標(biāo)題:紐約大學(xué)AI NOW:“情感識別”只是人相的程序化,一種來自上世紀(jì)的偽科學(xué)

文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

  • 標(biāo)簽: