伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

“刷臉時代”到來,人臉識別到底有多安全?

時間:2018-07-24 11:09:40點擊:529次

越來越多的地方可以刷臉通行了。

據(jù)香港南華早報報道,北京的新機場馬上要采用人臉識別技術(shù)代替人工安檢系統(tǒng),通過系統(tǒng)來捕捉旅客現(xiàn)場的照片與身份證照片進行比對,然后把這個比對值提供給安檢工作人員,安檢工作人員就可以通過這個值,再根據(jù)自己的比對來判斷旅客是不是同一個人,相當(dāng)于增加了一道安全的防護的保障。

人臉識別安檢系統(tǒng)安全便捷,智能高效,不僅方便了旅客過檢,還解決了在發(fā)生突發(fā)情況需要核查旅客過檢信息時無法實現(xiàn)快速查詢、檢查效率低、員工勞動強度大、人工成本高等問題。

人臉相比指紋等其他生物特征數(shù)據(jù)的一個巨大區(qū)別就是它們能夠遠距離起作用。人們只要有手機就可以拍下照片,供人臉識別程序使用。人臉識別技術(shù)被設(shè)想應(yīng)用或已經(jīng)應(yīng)用于門禁識別、交易支付、公安追蹤等眾多領(lǐng)域。

不過這也引發(fā)了人們關(guān)于隱私安全等方面的顧慮。

就像Facebook可以獲得人們到訪某個景點的信息,然后使用人臉識別技術(shù)在自己的網(wǎng)站上找到這些人,向他們發(fā)送旅游廣告,人們的臉部數(shù)據(jù)也通常在不知不覺之中被采集和記錄下來。

人臉識別是否會帶來隱私安全隱患?

如今,執(zhí)法機關(guān)在追蹤罪犯方面擁有了一個強大的武器,但它可能會令公民隱私遭受巨大的損害。比如上周五,在谷歌、亞馬遜之后,另一家硅谷巨頭微軟也在內(nèi)外阻力之下選擇和美國政府在人臉識別計劃上“分手”了。

最近微軟因一份涉及人臉識別軟件的政府合同而受到廣泛抨擊,微軟公司表示,它將更加謹慎地考慮這方面的合同,并敦促立法者規(guī)范此類人工智能技術(shù)的使用,以防止人臉識別技術(shù)被濫用。

上周五,微軟總裁兼首席法務(wù)官布拉德·史密斯(Brad Smith)專門發(fā)表了一篇博文,并在里面寫道:

“考慮到這項技術(shù)被濫用的可能性和廣泛的社會影響,政府在人臉識別方面的立法似乎顯得尤為重要?!币簿褪钦f,“如果沒有一個縝密的技術(shù)方案,那么政府在決定追捕、調(diào)查乃至逮捕哪些人的時候,就將依賴于錯誤或者帶有偏見的技術(shù)?!?

微軟是第一個對人臉識別提出公開質(zhì)疑的硅谷巨頭,但不是第一個受到質(zhì)疑的科技公司。

今年五月,亞馬遜因為正在為政府和警察部門推銷其一款名為Amazon Rekognition的產(chǎn)品而被推上風(fēng)口浪尖,遭到了來自民間自由團體、公司內(nèi)部員工和眾多學(xué)者的強烈譴責(zé)。

Amazon Rekognition的技術(shù)可以實時識別、跟蹤和分析人員,并在單幅圖像中識別多達100個人。它還可以快速掃描收集的信息,與數(shù)據(jù)庫數(shù)千萬張面孔進行比對。

消息一發(fā)布,瞬間引起了一大波恐慌,美國公民自由聯(lián)盟組織了30多個民權(quán)組織聯(lián)合抗議亞馬遜和政府的合作,要求亞馬遜CEO貝索斯停止向政府出售Rekognition。

大部分抗議者認為,如果政府可以利用精準的人臉識別,那么就將利用這個系統(tǒng)跟蹤和監(jiān)視民眾,個人隱私就會被公共權(quán)力毫無邊際地侵犯。Rekognition 技術(shù)的廣泛使用會給有色人種、非法入境移民、抗議示威民眾的人身自由權(quán)利帶來可怕的后果。

亞馬遜內(nèi)部的100多名員工更是向CEO杰夫·貝索斯(Jeff Bezos)遞交了一份公開信,要求公司停止向ICE和其他執(zhí)法機構(gòu)出售侵入性和違憲的Rekognition面部識別技術(shù)。

這些員工在聲明中言辭激烈地寫到:“我們公司不應(yīng)該干監(jiān)視群眾這種蹚渾水的事情;更不應(yīng)該和警方在安保方面有過密的合作;我們不應(yīng)該支持那些監(jiān)督和壓迫邊緣人群的公共權(quán)力機構(gòu)。”

如果沒有一個不帶偏見的技術(shù),那么執(zhí)法部門就可能利用這些帶有偏見的算法或缺陷的技術(shù)方法來決定跟蹤、調(diào)查,甚至逮捕哪些人,從而做出不公正的結(jié)論。

但是科技公司真的會因為各方的抵制而停止與政府和軍方在人臉識別領(lǐng)域的合作嗎?恐怕不。

亞馬遜的 AI 負責(zé)人 Matt Wood 在回應(yīng)抗議聲的博客中寫道:

新技術(shù)能力一直都存在風(fēng)險,以后也會如此。每個選擇使用技術(shù)的組織必須采取負責(zé)任的行動,否則就得面臨法律懲罰和公眾譴責(zé)的風(fēng)險。AWS 會認真對待自己的責(zé)任。但我們認為,不能因為某些技術(shù)未來可能被人濫用就禁止這些技術(shù)的發(fā)展,這樣是不對的?!?

無獨有偶。

因和五角大樓合作展開Maven項目而飽受指責(zé)的谷歌在宣布人工智能7大原則之后仍然給自己留了個臺階,表示將繼續(xù)與美國政府和軍方開展在網(wǎng)絡(luò)安全、培訓(xùn)、退伍軍人醫(yī)療保健、搜救和軍事招聘方面合作。這家網(wǎng)絡(luò)巨頭正在爭取兩項數(shù)十億美元的國防部門辦公和云服務(wù)合同。

人臉識別的偏見與缺陷

雖然人臉識別已經(jīng)成為AI 領(lǐng)域應(yīng)用最廣泛的技術(shù)之一,但在推廣過程中仍然爭議不斷。

其實,早在2016年,FBI就開發(fā)過一個人臉識別系統(tǒng),背后還有一個41.1億張照片的數(shù)據(jù)庫。

當(dāng)時FBI通過與18個州交換合作,得到了簽證、護照、國防生物識別數(shù)據(jù)庫、駕駛證等證件上的照片——以及3千萬張曾經(jīng)犯罪的入檔照片。

FBI還為這個數(shù)據(jù)庫專門取了個“下代識別”(Next Generation Identification)的名稱。

然而,據(jù)英國衛(wèi)報報道,FBI 的人臉識別算法準確率只有85%,并且往往會有兩種失誤情況:一種是錯誤匹配,冤枉了無辜的平民;另一種則是漏報,即錯誤放走了出境或入境的罪犯。而識別系統(tǒng)在識別黑人比識別白人的出錯率更高,也就是說在執(zhí)法時,黑人被誤判的幾率更大。

這暴露了人臉識別系統(tǒng)通常具有出錯率高的缺陷,尤其是難以識別和區(qū)分膚色較深的人。

MIT Lab一項名為《Gender Shades》的研究項目就發(fā)現(xiàn),人臉識別軟件中的不同性別和膚色的人的時候會產(chǎn)生偏差。在淺膚色男性的錯誤率為0.8%,而對于深色皮膚的女性則錯誤率高達34.7%。研究人員將這種偏差成為“算法偏見(algorithmic bias)”。

黑人研究人員Joy Buolamwini選擇了微軟、IBM和曠視(Face++)三家的人臉識別API,對它們進行性別判定的人臉識別功能測試。但是她發(fā)現(xiàn)只有兩個平臺能識別出她的臉,而且這兩個平臺都把她的性別給弄錯了。

為了證明她不是特例,Buolamwini于是嘗試分析這些人臉識別技術(shù)軟件在識別不同人種、不同性別方面的準確率,結(jié)果發(fā)現(xiàn)這幾個人臉識別系統(tǒng)對膚色較深的女性的分類誤差率更高。

她解釋說,這種“算法偏見”(algorithmic bias)存在的主要原因首先是訓(xùn)練圖像和基準數(shù)據(jù)集缺乏多樣性,其次是深色人種人臉特征較難提取,這兩點限制了人臉識別技術(shù)的準確性。

由于人工智能很大程度上依賴于訓(xùn)練數(shù)據(jù),所以對人工智能進行訓(xùn)練的數(shù)據(jù)情況,將在很大程度上決定AI的智能程度。因此,如果用來訓(xùn)練AI模型的數(shù)據(jù)集中,白人男性的數(shù)據(jù)多于黑人女性,那么系統(tǒng)對后者的識別能力就會不如前者。

Joy Buolamwini指出,如果這些人臉識別技術(shù)用于移民案件管理或者貸款發(fā)放評估方面,那么產(chǎn)生的不靠譜的結(jié)果將使很多人得到不公正的待遇。

Kairos(人臉識別及 AI 技術(shù)初創(chuàng)公司)的 CEO Brian Brackeen 發(fā)表了一篇反對將人臉識別應(yīng)用在執(zhí)法工作中的文章。

文章中寫道,在種族歧視嚴重的美國,非白人受到更嚴格的審查,人臉識別只會加重“不平等”。在數(shù)據(jù)庫還不夠完善的當(dāng)下,讓技術(shù)去“指認”一個人是否犯了罪是極其不負責(zé)任的。喬治城大學(xué)法律學(xué)院隱私與科學(xué)中心的研究就表明,接近一億二千萬的美國人成為美國政府人臉識別技術(shù)的應(yīng)用對象。而這一個數(shù)據(jù)在中國則更加龐大。

鑒于人臉識別技術(shù)仍未成熟,如果完全不受監(jiān)管的話,這項技術(shù)可能會對公民平等和人身安全構(gòu)成威脅。

人臉識別會成為明天的“利維坦”嗎?

微軟總裁兼首席法務(wù)官布拉德·史密斯在發(fā)表的博文里面提到:

“正像凡是工具總有兩面性,就算是掃把,我們也都可以把它用來掃地,也可以用來敲別人的頭懲罰別人。人臉識別技術(shù)能夠幫助家庭找到失散已久的親人、也可以幫助警察在茫茫人海中找出準備發(fā)動襲擊的恐怖分子,這些是它能為我們所利用的好處。但同時,人臉識別技術(shù)也帶來了根本的關(guān)于隱私權(quán)和自由表達權(quán)利的討論,這項技術(shù)若是被公共權(quán)力或者企業(yè)所誤用乃至利用,后果是非??膳碌摹!?

人臉識別是目前 AI 領(lǐng)域里應(yīng)用最廣泛的技術(shù)之一,但是帶來的隱私問題也十分嚴重。

喬治城大學(xué)法隱私和技術(shù)中心的助理 Clare Garvie也表達了她的擔(dān)憂。

人臉識別對言論自由的影響是潛在但不可忽視的。如果人臉識別技術(shù)被警方用于監(jiān)控那些挑戰(zhàn)公共權(quán)力的群眾,那就好比用于在游行示威中,就如同警方在隊伍中穿行,要求在場的每個人都出示身份證明。所有的群眾都在爭取政治權(quán)利的過程中加之亞馬遜在科技領(lǐng)域的影響力,會有更多執(zhí)法機構(gòu)愿意參與進來。

微軟這次的事件之所以引起各方關(guān)注,就是因為在上個月微軟的AI 技術(shù)被用于在墨西哥邊境分離非法入境者及其子女。事件被曝光后,微軟短暫地在網(wǎng)站上刪除了其與美國移民和海關(guān)執(zhí)法局簽訂合同的文章,但仍然受到廣泛抨擊。

此外,由于人臉不僅僅能表明身份,透露的許多其他信息同樣能由機器讀取,更多人擔(dān)心這些推測數(shù)據(jù)會被用于不正義的地方。

斯坦福大學(xué)的研究人員就表明,面對一個男同性戀者和一個異性戀者的照片時,算法識別他們性取向的準確率可以達到81%,而人類只能達到61%。在那些視同性戀為犯罪的國家,一個能從面部推斷出性取向的軟件讓人恐懼。

今年五月,美國公民自由團體已經(jīng)呼吁科技公司停止向政府提供面部識別服務(wù),認為這是對公民權(quán)利的侵犯。各家公司都表示將更加謹慎地考慮這方面的合同,并敦促立法者規(guī)范人工智能技術(shù)的使用,避免這些技術(shù)受到執(zhí)法者的濫用。

在歐盟,今年五月新出臺的《GDPR數(shù)據(jù)保護法》已禁止企業(yè)在未獲得用戶特定同意的情況下收集人臉識別所需的生物特征數(shù)據(jù)。

諸多文章和質(zhì)疑都表明,人臉識別被濫用的隱私和安全問題不能再放任不管了,政府必須在其中扮演立法者的角色,科技公司也不能對倫理問題視而不見,是時候應(yīng)該好好地思考他們開發(fā)的技術(shù)所產(chǎn)生的道德影響和人權(quán)影響、以及使用過程中帶來的風(fēng)險。

結(jié)語

在圣經(jīng)故事中,利維坦一只大水怪,因為不受控制,它憑借著巨大的身型攻城略地,把人類一個又一個的吃掉。

人臉識別技術(shù),抑或是人工智能技術(shù)也一樣,如果沒有完善的法律約束使用這項技術(shù)的應(yīng)用領(lǐng)域,保證他們用于合法、道德的場景,那么科技就會助紂為虐,而不是像科技公司所說的那樣,改善我們的生活質(zhì)量,讓我們過上更加安全、舒適的生活。

所以人臉識別技術(shù)的明天不僅要追求精準的”高度”,更要守著公民權(quán)利的“底線”啊。

來源:聲學(xué)在線

  • 標簽: