伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

人臉識別不光能解鎖手機(jī),它還可能檢測你是直男還是Gay?

時間:2018-07-10 10:51:34點(diǎn)擊:422次

人臉識別不光能解鎖手機(jī),抓逃犯...它還可能檢測你是直男還是 Gay?

也許你已經(jīng)聽過了這一消息。去年,斯坦福大學(xué)組織助理教授 Michael Kosinki 和同事 Yilun Wang 在一篇論文中展示了人臉識別算法如何從圖像中提取特征,來識別某人是否是同性戀。研究稱,在只有一張正面照的情況下,算法判斷男同性戀的準(zhǔn)確率達(dá)到 81%,女同性戀的準(zhǔn)確率則為 74%。

相比之下,人類能夠分辨出同性戀的準(zhǔn)確率為 61%(男)和 54%(女)。而當(dāng)測試者在提供五張面部圖片的情況下,人臉識別算法的準(zhǔn)確度增加到了 91%(男)和 83%(女)。

研究發(fā)現(xiàn),同性戀往往具有“性別非典型”特征,這也給產(chǎn)前激素理論提供了強(qiáng)有力的支持——也就是同性戀男性的長相更女性化。通常,男性的下巴較寬,鼻子較短,前額較小;而男同性戀者下巴較窄,鼻子較長,前額較大,臉部毛發(fā)較稀少。相反,女同性戀者的臉部通常比女異性戀者的臉部更像男性臉部(下巴較寬,前額較小)。而且,同性戀者和異性戀者在梳洗打扮方面確實(shí)不同。

這一研究在當(dāng)時引起軒然大波,引發(fā)了 LGBTQ 組織的抗議,要求斯坦福大學(xué)不再涉足相關(guān)研究。近日,《衛(wèi)報》發(fā)布了一篇對 Kosinki 的專訪報道,解釋了這項(xiàng)研究的出處以及目的,并且在近一年面臨各種質(zhì)疑的情況下依然堅(jiān)持這項(xiàng)研究的可行性,最后還表達(dá)了他對 AI 技術(shù)的悖論思考。

據(jù) Kosinki 介紹,當(dāng)時和他的助手通過采集分析了婚戀交友網(wǎng)站上的 35326 張照片,運(yùn)用機(jī)器學(xué)習(xí)技術(shù)研發(fā)出一套名為“AI gaydar”系統(tǒng),用以識別同性戀。

但這這項(xiàng)研究并非有意為之,而是一個偶然發(fā)現(xiàn)。當(dāng)時,他正在利用 Facebook 的用戶數(shù)據(jù)做人格分析,在篩選個人資料時,注意到內(nèi)向和外向的人有著截然不同的面孔,這讓他感到兩者可能存在某種聯(lián)系。

實(shí)際上,在得到上述研究結(jié)果之后,他作為研究者也驚訝于算法為什么會這么容易區(qū)分出同性戀和異性戀。

在該研究被《經(jīng)濟(jì)學(xué)人》報道后,Kosinki 遭到了來自網(wǎng)友以及學(xué)界的口誅筆伐。普林斯頓大學(xué)教授 Alexander Todorov 當(dāng)時質(zhì)疑 Kosinski 的研究存在嚴(yán)重缺陷,因?yàn)橥ㄟ^比較數(shù)千張照片而成的算法模式可能與面部特征無關(guān)。另有 Google 的兩位 AI 研究人員和 Todorov 持一致論調(diào),認(rèn)為 Kosinski 的算法可能會對檢測者的妝束、胡須或者眼鏡等特征做出回應(yīng),但 AI gaydar 并沒有發(fā)現(xiàn)不同性取向的人在臉部特征上有何差異。

根據(jù)今年 1 月的報道,Google 研究團(tuán)隊(duì)對這一爭議研究進(jìn)行了二次調(diào)查,他們的反對態(tài)度更加堅(jiān)決。通過這次調(diào)查,Google 團(tuán)隊(duì)反而發(fā)現(xiàn)了同性戀與異性戀關(guān)于“如何自拍”的差異。他們發(fā)現(xiàn),“直男傾向于低角度自拍,使得下巴變大,鼻子縮短、額頭變小,笑容減少”,這樣的角度強(qiáng)調(diào)了其主導(dǎo)地位。因此,他們認(rèn)為這種差異的存在主要與文化而不是臉部結(jié)構(gòu)有關(guān)。

此外,Todorov 也指出,人們在約會網(wǎng)站上發(fā)的照片,投射出很多非人臉的特征。

Kosinski 承認(rèn)他的機(jī)器學(xué)習(xí)系統(tǒng)檢測到了這些不相關(guān)的特征,但他還是堅(jiān)持認(rèn)為,人臉與心理之間存在聯(lián)系,即便它們對人眼是不可見的,但現(xiàn)在隨著機(jī)器學(xué)習(xí)的進(jìn)步就可以感知到這種連接。

他拿人類犯罪傾向做類比,認(rèn)為睪酮水平與犯罪傾向有關(guān),而且它們也與面部特征有關(guān),這個環(huán)節(jié)計算機(jī)很容易被發(fā)現(xiàn)。不過,當(dāng)被問及他是否會利用 AI 進(jìn)行犯罪檢測這種類似研究時,卻表現(xiàn)得猶豫不決。

但早在 2016 年,在太平洋彼岸的中國,上海交大教授就完成用機(jī)器看臉識罪犯的研究,根據(jù)當(dāng)時的報道,聲稱識別準(zhǔn)確率可達(dá) 86% 以上,這在當(dāng)時也引起了國內(nèi)外輿論的質(zhì)疑,Google 的幾名研究員也對其撰文進(jìn)行了批駁。

Kosinki 還使用人臉識別算法來辨別共和黨人和民主黨人的政治傾向,這目前還是一項(xiàng)未公開的研究,但他聲稱這項(xiàng)研究是成功的,盡管他也承認(rèn)這個結(jié)果可能隨著被檢測者某些臉部特征(如胡須)的改變而改變。值得一提的是,Kosinski 對人工智能的開創(chuàng)性研究曾啟發(fā)了現(xiàn)在臭名昭著的政治咨詢公司 Cambridge Analytica,后者將其技術(shù)應(yīng)用在了特朗普競選活動以及英國脫歐活動中。

除此之外,他相信 AI 技術(shù)可用于檢測情緒、智商甚至是犯罪傾向。Kosinki 也稱,AI 技術(shù)應(yīng)用多少都存在隱私問題,但它有時可以用來拯救生命,這是在警告人們免受新技術(shù)困擾時存在的固有悖論,這是批評者們經(jīng)常所忽視的。

Kosinki 表示,他對人類失去隱私感到不安,但這不會改變我們已經(jīng)失去隱私的事實(shí),而且這種糟糕的狀況是不可逆的。這些研究最重要的是強(qiáng)調(diào) AI 對人類隱私所造成的潛在危險,從而引起人們的重視。

事到如今,對人臉識別技術(shù)究竟能否檢測同性戀這一話題,還未有統(tǒng)一權(quán)威的報告給出確定答案,但有意思的是,Kosinki 透露,他收到了大量電子郵件,那些對自己性取向有困惑的人們紛紛獻(xiàn)上照片,希望 Kosinki 用“AI gaydar”系統(tǒng)做個鑒定。

對于人臉識別技術(shù)檢測同性戀,你怎么看?

原文標(biāo)題:壞了,人臉識別能檢測出同性戀?

文章出處:【微信號:rgznai100,微信公眾號:AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

  • 標(biāo)簽: