伊人久久大香线蕉综合BD高清,变态另类天堂无码,大又大又粗又硬又爽少妇毛片,中文字幕有码一区二区三区

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

人工智居然也會(huì)犯罪?

時(shí)間:2018-07-05 09:54:20點(diǎn)擊:396次

一個(gè)關(guān)于人工智能(AI)輔助刑偵的案例相當(dāng)有趣:今年以來(lái),基于人臉識(shí)別技術(shù),已有不下5名逃犯在多地舉行的張學(xué)友演唱會(huì)上被抓。

而另一案例卻令人十分憂慮:浙江紹興警方去年破獲的一起涉嫌詐騙的案件中,犯罪嫌疑人的行為涉及竊取數(shù)據(jù)、利用人工智能曬密撞庫(kù)、分銷數(shù)據(jù)、冒充詐騙、洗錢等整個(gè)產(chǎn)業(yè)鏈。其中,曬密撞庫(kù)是基于人工智能的快速識(shí)別驗(yàn)證碼技術(shù)。

有科學(xué)家估計(jì),到2040年,人工智能的犯罪率將會(huì)超過(guò)人類。利用人工智能技術(shù)進(jìn)行欺詐等犯罪行為,在很大程度上與個(gè)人信息泄露與隱私保護(hù)不力相關(guān)。如何在發(fā)揮人工智能積極作用的同時(shí),保護(hù)個(gè)人隱私、防止詐騙等犯罪,以及平衡個(gè)人保護(hù)與公共利益的關(guān)系,是人工智能時(shí)代的一項(xiàng)重要課題。

AI比你更了解你

在各種智能終端、傳感器無(wú)所不在的今天,借助便捷的信息采集技術(shù),社交網(wǎng)絡(luò)能夠很方便地將人們的行為方式、性格傾向、興趣愛好等信息化和數(shù)據(jù)化,而通過(guò)相應(yīng)的智能算法,就可以準(zhǔn)確地畫出每個(gè)人的“數(shù)據(jù)畫像”,這也意味著,在大數(shù)據(jù)采集、分析和人工智能技術(shù)面前,我們每個(gè)人都將變成“透明人”,不再擁有傳統(tǒng)意義上的隱私??梢哉f(shuō),算法甚至比你自己更了解你。而掌握著這些數(shù)據(jù)和算法的機(jī)構(gòu),無(wú)論是公共部門還是商業(yè)企業(yè),都可以利用其來(lái)“智能化”地推行社會(huì)治理或提供商品服務(wù),從而大幅提升管理效率與服務(wù)水平。

對(duì)公共部門而言,借助上述技術(shù)可以方便地掌握民眾在收入、消費(fèi)、健康、教育等方面的情況,為稅收、社保、衛(wèi)生、教育等方面的政策制定與實(shí)施提供支持。但其中的一個(gè)風(fēng)險(xiǎn)在于:人工智能基于機(jī)器學(xué)習(xí)特別是自主學(xué)習(xí)而形成的“黑箱”特征,并不能保證其所習(xí)得的算法的公平性和合理性,因?yàn)樗荒鼙3帧敖普_”,從而有可能產(chǎn)生誤判。紐約市的教育部門由于引入了基于人工智能的評(píng)教系統(tǒng),導(dǎo)致一位深受學(xué)生和同事喜愛的老師被解雇,就是一個(gè)“算法失效”的典型案例。

與公共部門相比,商業(yè)機(jī)構(gòu)特別是掌握大量消費(fèi)者數(shù)據(jù)的平臺(tái)公司,則是消費(fèi)者受到隱私泄露與“算法歧視”威脅的最大風(fēng)險(xiǎn)源。第一種常見的風(fēng)險(xiǎn)是,消費(fèi)者個(gè)人信息被泄露和不當(dāng)使用,如臉書和劍橋分析公司的信息泄露案就是典型代表。另一種常見的風(fēng)險(xiǎn)是,在完全沒(méi)有外部規(guī)制的條件下,商家有足夠的動(dòng)力根據(jù)消費(fèi)者的個(gè)人偏好向其推薦特定商品或服務(wù),并根據(jù)消費(fèi)者的收入水平、消費(fèi)傾向而“因人定價(jià)”,以實(shí)現(xiàn)利潤(rùn)最大化。此外,如保險(xiǎn)公司拒絕向特定人群(如特定基因攜帶者或特定行為人群)提供保險(xiǎn),類似這種“消費(fèi)者歧視”或“拒絕服務(wù)”,在人工智能+大數(shù)據(jù)分析的今天不難做到。

為了應(yīng)對(duì)人工智能時(shí)代可能引發(fā)的信息泄露與侵權(quán)問(wèn)題,歐盟出臺(tái)了號(hào)稱史上最嚴(yán)厲的數(shù)據(jù)保護(hù)法規(guī)——《通用數(shù)據(jù)保護(hù)條例》(GDPR),并于今年開始實(shí)施。條例對(duì)個(gè)人信息的保護(hù)達(dá)到前所未有的程度,將數(shù)據(jù)披露與使用的權(quán)利賦予個(gè)人,明確數(shù)據(jù)控制者與處理者有保護(hù)個(gè)人數(shù)據(jù)及加工處理以防止泄密的義務(wù),值得研究與借鑒。

金融詐騙的新寵

近年來(lái),人工智能技術(shù)被少數(shù)別有用心的人有目的地用于欺詐等犯罪行為。如將基于不當(dāng)手段獲取的個(gè)人信息形成“數(shù)據(jù)畫像”,再借助社交平臺(tái)冒充熟人進(jìn)行詐騙。再比如,使用人工智能技術(shù)進(jìn)行學(xué)習(xí)與模擬,生成包括圖像、視頻、音頻、生物特征等在內(nèi)的信息,突破安防屏障。去年曾有報(bào)道稱新款蘋果手機(jī)“刷臉”開機(jī)功能被破解,即是這類例子。

傳統(tǒng)的金融欺詐檢測(cè)系統(tǒng)高度依賴復(fù)雜的密碼、刻板的規(guī)則,在提供保護(hù)的同時(shí)也給消費(fèi)者帶來(lái)諸多不便,并且由于缺乏有效的科技手段,已無(wú)法應(yīng)對(duì)日益演進(jìn)的欺詐模式和欺詐技術(shù),偽造、冒充身份等欺詐事件時(shí)有發(fā)生,給企業(yè)和消費(fèi)者造成很大損失。

可喜的是,目前已經(jīng)出現(xiàn)相當(dāng)一部分人工智能技術(shù)用來(lái)防范可能的犯罪行為,如智能安防領(lǐng)域的語(yǔ)音識(shí)別、人臉識(shí)別、視頻抓取等,再比如智能金融領(lǐng)域的免密支付、生物特征識(shí)別、異常行為分析等。且目前國(guó)內(nèi)已出現(xiàn)以反欺詐為代表的金融科技公司,致力于應(yīng)用人工智能技術(shù)構(gòu)建自動(dòng)化、智能化反欺詐技術(shù)和系統(tǒng),幫助企業(yè)風(fēng)控系統(tǒng)打造用戶行為追蹤與分析能力,建立異常特征的自動(dòng)識(shí)別能力,逐步達(dá)到自主、實(shí)時(shí)地發(fā)現(xiàn)新的欺詐模式的目標(biāo)。這在信用體系、監(jiān)管體系存在缺失的社會(huì),具有特別重要的意義。

運(yùn)用人工智能技術(shù)應(yīng)對(duì)如金融欺詐等犯罪行為,除了需要技術(shù)本身的研發(fā)與完善,還需要相關(guān)法律法規(guī)的保障,如針對(duì)電子證據(jù)(包括行為數(shù)據(jù))的獲取與保存、平臺(tái)與消費(fèi)者舉證責(zé)任劃分等問(wèn)題,都應(yīng)建立具體的法律法規(guī)保障制度。

此外,從潛在風(fēng)險(xiǎn)來(lái)看,無(wú)人機(jī)、無(wú)人車、智能機(jī)器人等都可能遭到非法侵入與控制,導(dǎo)致財(cái)產(chǎn)損失或被犯罪分子利用的后果。針對(duì)此類風(fēng)險(xiǎn),則要從產(chǎn)品設(shè)計(jì)上進(jìn)行追溯,明確是否存在設(shè)計(jì)缺陷或漏洞,在界定生產(chǎn)者責(zé)任的基礎(chǔ)上再行改進(jìn)與完善。

制度+技術(shù)的雙重防控

如前所述,人工智能技術(shù)應(yīng)用于公共治理、商業(yè)服務(wù)、公共安全等領(lǐng)域,能夠帶來(lái)極大的便利和明顯的收益,但同時(shí)也引發(fā)了一系列新問(wèn)題,其核心是對(duì)信息,特別是個(gè)人敏感信息的搜集、分析、處置與使用,以及這一過(guò)程中不同參與主體相互之間責(zé)任、權(quán)利與義務(wù)關(guān)系的界定。因此,這是一個(gè)公共治理問(wèn)題。

從這一角度來(lái)看,在人工智能時(shí)代,個(gè)人數(shù)據(jù)和隱私保護(hù)已經(jīng)不單是個(gè)人權(quán)利問(wèn)題,還與公共利益息息相關(guān)。例如,“個(gè)人數(shù)據(jù)畫像”的生成,除基于個(gè)人特征信息外,更多來(lái)自行為數(shù)據(jù),尤其是來(lái)自與他人的交往和聯(lián)系中所產(chǎn)生的數(shù)據(jù)。因此,在數(shù)據(jù)治理上,如何實(shí)現(xiàn)個(gè)人保護(hù)與公共利益的平衡,需要深入思考與研究。

從技術(shù)角度來(lái)看,目前基于大數(shù)據(jù)、機(jī)器學(xué)習(xí)等方式產(chǎn)生的人工智能算法,其內(nèi)部仍然是一個(gè)“黑箱”,并不能從因果機(jī)制角度來(lái)判定其合理性、正當(dāng)性。與此同時(shí),由于數(shù)據(jù)本身的局限性、有偏性,加之社會(huì)意識(shí)形態(tài)與主流價(jià)值觀的影響,也可能導(dǎo)致算法出現(xiàn)偏差,甚至“算法歧視”,留下不當(dāng)使用的漏洞。

要解決這一問(wèn)題,就需要從根本上突破“算法透明”障礙。而這又要求人類樹立正確的倫理標(biāo)準(zhǔn),營(yíng)造良好的科研與市場(chǎng)競(jìng)爭(zhēng)環(huán)境,鼓勵(lì)平臺(tái)公司和中小企業(yè)在相應(yīng)倫理規(guī)范和法律法規(guī)的指引下積極開展研發(fā)活動(dòng),特別是能夠在人工智能基礎(chǔ)理論、核心算法上有所創(chuàng)新,有所突破。

原文標(biāo)題:梁正老師《環(huán)球》雜志發(fā)文談人工智能安全防范問(wèn)題

文章出處:【微信號(hào):cistp2016,微信公眾號(hào):CISTP科技政策中心】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

  • 標(biāo)簽: