国产成人超清在线视频,国产高清永久免费,国产最新超碰97上传无码,超碰国产人人草人人爽

人工智能時代該如何奪回我們的“不知情權(quán)”

智能
  • 新浪科技
  • 2018-07-05 14:38

北京時間7月5日消息,據(jù)國外媒體報道,柏林墻倒塌后,東德公民終于有機會閱讀到斯塔西(Stasi,東德的國家安全機構(gòu),被認為是當時世界上最有效率的情報和秘密警察機構(gòu)之一)保存的關(guān)于他們的資料。然而迄今為止,只有大約10%的人真的去查閱了這些資料。

2007年,脫氧核糖核酸(DNA)結(jié)構(gòu)的發(fā)現(xiàn)者之一詹姆斯·沃森(James Watson)表示,他并不想知道自己的載脂蛋白E(ApoE)基因信息。該等位基因被認為是阿爾茨海默癥的風(fēng)險因子。

民意調(diào)查顯示,如果有選擇的話,大多數(shù)人寧愿不知道自己的死亡日期——甚至是快樂事件的發(fā)生日期也不想知道。

以上這些都是故意選擇不知道的例子。蘇格拉底可能會提出,未經(jīng)審視的生活不值得過;而霍布斯則會爭論稱,好奇心是人類最主要的激情;但還有許多古老的故事向我們描述了知道太多也會帶來危險。從亞當、夏娃和智慧樹,到盜取取火秘密的普羅米修斯,這些故事告訴我們,現(xiàn)實生活中需要在選擇知道和不知道之間達成微妙的平衡。

然而,如果出現(xiàn)一種技術(shù),能以無法預(yù)知的方式改變這種平衡,同時讓我們在決定什么時候保持不知情的問題上變得復(fù)雜的話,又會帶來什么后果?這種技術(shù)其實已經(jīng)出現(xiàn)了,那就是人工智能。

人工智能可以利用相對較少的數(shù)據(jù)來找到模式并做出推論。例如,只需要幾個Facebook上的點贊就可以預(yù)測出你的個性、種族和性別。還有一種計算機算法聲稱,只需根據(jù)人們的照片,就能以81%的準確率區(qū)分同性戀和異性戀男性,而區(qū)分同性戀和異性戀女性的準確率為71%。另一種名為“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法則可以通過青少年被捕記錄、家庭犯罪記錄、教育、社會隔離和休閑活動等數(shù)據(jù),來預(yù)測犯罪者再犯的可能性,準確率達到65%。

在這些例子中,結(jié)論和所用的數(shù)據(jù)可能在本質(zhì)上存在著驚人的偏差(即使某些結(jié)果的有效性仍在爭論中)。這使得控制我們所知道的內(nèi)容十分困難,而且也沒有什么法規(guī)來幫助我們保持不知道的狀態(tài):不存在受保護的“不知情權(quán)”。

于是,這就創(chuàng)造了一種氛圍,用Facebook的早期座右銘來說,我們很容易“快速行動,破除陳規(guī)”(move fast and break things)。但是,當涉及到我們私人生活的細節(jié)時,“破除陳規(guī)”是否就是我們想要的呢?

幾十年來,政府和立法者都知道“潘多拉的盒子”有時候最好還是不要打開。至少在20世紀90年代,保護個人不知情權(quán)利的法律就已經(jīng)出臺。例如,1997年的“歐洲人權(quán)和生物醫(yī)學(xué)公約”(European Convention on Human Rights and Biomedicine)規(guī)定:“每個人都有權(quán)了解其被收集的有關(guān)健康狀況的任何信息。但是,應(yīng)當遵從個人不希望被告知的意愿?!鳖愃频模?995年世界醫(yī)學(xué)協(xié)會的“患者權(quán)利宣言”(Rights of the Patient)中指出:“患者有權(quán)利明確要求不被告知(醫(yī)療數(shù)據(jù)),除非是為了保護其他人的生命?!?/p>

然而,為人工智能制定“不知情權(quán)”法規(guī)是完全不同的問題。雖然醫(yī)療數(shù)據(jù)受到嚴格管制,但人工智能所使用的數(shù)據(jù)往往掌握在名聲不佳的盈利性科技公司手中。人工智能處理的數(shù)據(jù)類型也更廣泛,因此任何相應(yīng)的法律都需要對什么是“不知情權(quán)”有更深入的理解。研究故意不知情的心理將有助于設(shè)計適用于人工智能的不知情權(quán)法律。不過,令人驚訝的是,這一嚴謹?shù)目茖W(xué)研究話題長期以來一直被忽略,或許是因為某種隱含的假設(shè),即故意忽略信息是不理性的。

心理學(xué)家拉爾夫·赫特維格(Ralph Hertwig)和法律學(xué)者克里斯托弗·恩格爾(Christoph Engel)近期發(fā)表了一篇文章,對故意選擇不知情的動機進行了細致分類。在他們識別出的動機中,有兩組尤其與面對人工智能時對不知情的需求密切相關(guān)。

第一組動機圍繞公正和公平展開。簡而言之,知識有時會破壞判斷力,而我們往往選擇以故意不知情作為回應(yīng)。例如,學(xué)術(shù)論文的同行評議通常是匿名的。大多數(shù)國家的保險公司在登記之前不得獲取有關(guān)客戶健康狀況的細節(jié);他們只能知道一般的健康風(fēng)險因素。這種考慮尤其與人工智能關(guān)系密切,因為人工智能可以產(chǎn)生極具偏見的信息。

第二組相關(guān)的動機是情緒調(diào)節(jié)和避免遺憾。赫特維格和恩格爾寫道,刻意的不知情可以幫助人們維持“珍視的信仰”,并避免“精神不適、恐懼和認知失調(diào)”。故意不知情其實非常盛行。調(diào)查中大約90%的德國人希望避免可能由于“預(yù)知諸如死亡和離婚等負面事件”而產(chǎn)生的負面情緒,40%到70%的人也不想知道正面事件,以幫助保持“對驚喜和懸念的積極感受”,比如不知道未出生孩子的性別。

這兩組動機能幫助我們理解在人工智能面前保護不知情權(quán)的必要性。舉例來說,人工智能“同志雷達”(gaydar)算法的潛在收益似乎接近于零,但是在公正性和公平性方面的潛在成本卻很高。正如《經(jīng)濟學(xué)人》(The Economist)所說的那樣,“在世界上同性戀社交不被接受或被認為非法的部分地區(qū),這樣的算法可能對安全構(gòu)成嚴重威脅。”同樣的,NtechLab目前正在開發(fā)的種族識別人工智能系統(tǒng)所能帶來的潛在收益,與其對公正性和公平性的負面影響相比顯得蒼白許多。COMPAS累犯預(yù)測軟件具有比人類更高的準確性,但正如Dressel和Farid所寫,這“并不像我們想要的那種準確,尤其是從未來還懸而未決的被告者的角度來看”。預(yù)測個人預(yù)期壽命的算法,比如Aspire Health正在開發(fā)的算法,并不一定會讓人們的情緒調(diào)節(jié)變得更容易。

這些例子說明了識別個體不知情動機的影響,并且展示了知識和無知的問題可以有多復(fù)雜,特別是在涉及人工智能的時候。關(guān)于集體不知情在什么時候有益處,或者在道德上合理的問題,沒有現(xiàn)成的答案。理想的做法是單獨考慮每個案例,進行風(fēng)險收益分析。理想情況下,鑒于爭論的復(fù)雜性和后果的重要性,這一分析將公開進行,考慮各種利益相關(guān)者和專家意見,并考慮所有可能的未來結(jié)果,包括最壞的情況。

這其中涉及的問題太多了……事實上,理想做法在大多數(shù)情況下都是行不通的。那么,我們又該如何做呢?

一種方法是控制和限制機器根據(jù)已采集數(shù)據(jù)進行的推理。例如,我們可以“禁止”使用種族作為預(yù)測變量的司法算法,或者從潛在求職者的預(yù)測分析中排除性別。但是,這種方法也存在問題。

首先,限制大公司使用信息的成本太高,技術(shù)難度也很大。這需要這些公司將算法開源,同時要求大型政府機構(gòu)不斷對其審查。另一方面,一旦采集到大量的數(shù)據(jù)集,總是會有很多迂回的方法來推理出“禁止的知識”。假設(shè)政府宣布使用性別信息來預(yù)測學(xué)術(shù)成功是非法的,那就可能出現(xiàn)使用“擁有汽車類型”和“最喜歡的音樂流派”作為性別替代指標,直接進行替代指標的二級推理。有時候,盡管一家公司的意圖是好的,但有關(guān)性別的推理也可能意外地嵌入到算法中。這些二級推理導(dǎo)致對算法的審查更加困難。一個分析中包含的變量越多,發(fā)生二級推理的可能性就越大。

97fd63ef01edb68.png

麻省理工學(xué)院的研究者在網(wǎng)站(moralmachine.mit.edu)上根據(jù)人們自己選擇的數(shù)據(jù)類型,測試他們在機器即將做出決定的情況下表現(xiàn)出的道德直覺。

保護不知情權(quán)權(quán)更激進——也可能更有效——的方法是第一時間防止數(shù)據(jù)被收集。2017年,德國做出了一項開創(chuàng)性的舉措,立法禁止自動駕駛汽車通過種族、年齡和性別來識別道路上的人。這意味著汽車將無法通過這些類別的數(shù)據(jù)來做出駕駛決策,尤其是在事故不可避免時需要做出的決策。

基于相同的思維方式,歐盟推出了新的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR),并于2018年5月生效。該條例規(guī)定,只允許公司在提供明確的指定服務(wù)時,收集和存儲必需的最少量數(shù)據(jù),并且獲得客戶對其數(shù)據(jù)使用方式的同意。這種對數(shù)據(jù)獲取的限制可能也會阻止二級推理。但《通用數(shù)據(jù)保護條例》的一個重要局限是,公司可以為自己設(shè)定非常寬泛的目標。例如,如今已經(jīng)關(guān)門的劍橋分析(Cambridge Analytica)公司的明確目標是評估用戶的個性,因此在技術(shù)上,它對Facebook數(shù)據(jù)的收集符合《通用數(shù)據(jù)保護條例》的規(guī)定。同樣的,只要用戶同意——許多人即使在獎勵相當微薄的情況下也會同意分享自己的數(shù)據(jù)——《通用數(shù)據(jù)保護條例》對數(shù)據(jù)和給定服務(wù)之間一致性的關(guān)注就無法排除道德上有問題的數(shù)據(jù)類別,也不能完全阻止公司從數(shù)據(jù)中介那里購買被排除的數(shù)據(jù)。研究人員發(fā)現(xiàn),麻省理工學(xué)院的一些學(xué)生會分享他們朋友的聯(lián)系數(shù)據(jù),只為了獲得一小片披薩。顯然,我們還需要更多的限制手段,但究竟需要多少呢?

美國程序員、自由軟件活動家理查德·斯托曼(Richard Stallman)說:“利用數(shù)據(jù)來害人的方法太多了,以至于唯一安全的數(shù)據(jù)庫就是從未被收集過的數(shù)據(jù)庫。”然而,如果對數(shù)據(jù)采集的限制過于嚴厲,又可能會阻礙人工智能的發(fā)展,并減少我們從中獲得的收益。

誰應(yīng)該權(quán)衡其中的利弊?首先應(yīng)該是我們自己。

在大多數(shù)情況下,我們談?wù)摰钠鋵嵤悄阄易鳛閭€人所擁有的數(shù)據(jù)。我們一直都很粗心大意,將這些數(shù)據(jù)拱手讓給各種閃亮的app,絲毫不考慮后果。事實上,我們一直在放棄我們的數(shù)據(jù),以至于忘記了一開始它就是屬于我們的。收回數(shù)據(jù)將使我們每個人都能決定哪些事情想知道,哪些不想知道。讓數(shù)據(jù)回到合適的人——也就是我們自己——手中,就可以巧妙地解決我們討論的許多艱巨問題。我們不再需要制定通用的預(yù)見性指導(dǎo)規(guī)范,相反的,數(shù)以百萬計的個體將根據(jù)自己的是非觀來決定自身數(shù)據(jù)的用途。我們可以對公司如何使用數(shù)據(jù)做出實時反應(yīng),根據(jù)他們對待數(shù)據(jù)的方式來進行懲罰或獎勵。

關(guān)于把數(shù)據(jù)放回人們手中,計算機科學(xué)哲學(xué)家杰倫·拉尼爾(Jaron Lanier)提出了一個經(jīng)濟學(xué)上的論據(jù)。他指出,通過將我們自己的個人數(shù)據(jù)賣給大公司,我們應(yīng)該都能從中受益。這種方法存在著兩個問題。首先,它混淆了數(shù)據(jù)使用和所有權(quán)的道德規(guī)范。在回答數(shù)據(jù)應(yīng)該如何被使用的問題時,免費提供數(shù)據(jù)的意愿在道德完整性上是很好的試金石。一個小眾群體中有多少人會愿意免費提供數(shù)據(jù),以創(chuàng)建一個像“同志雷達”這樣的面部識別應(yīng)用程序?又有多少人會愿意為此付費?另一方面,大多數(shù)人會很樂意貢獻他們的數(shù)據(jù)來尋找治療癌癥的方法。第二個問題是,賦予個人數(shù)據(jù)(較高的)經(jīng)濟價值可能會迫使人們分享他們的數(shù)據(jù),并使數(shù)據(jù)隱私成為富人的特權(quán)。

這并不是說個人的單獨行動就足夠了,社會機構(gòu)的集體行動也是必需的。即使只有小部分人口分享他們的敏感數(shù)據(jù),其結(jié)果也可能具有大多數(shù)人反對的高預(yù)測準確性。并不是所有人都明白這一點。為了防止不必要的后果,我們需要更多的法律和公共討論。

《經(jīng)濟學(xué)人》曾寫道,世界上最寶貴的資源不再是石油,而是數(shù)據(jù)。然而,數(shù)據(jù)與石油有著很大不同。數(shù)據(jù)是無限的資源,由個人所有,并且通常是在沒有交易價值的情況下進行交換。從石油中獲利便殺死了石油市場。作為第一步,從數(shù)據(jù)中獲取利潤將為我們提供空間,用于創(chuàng)造和維持能在人工智能到來之后延續(xù)的道德標準,并為管理集體的不知情權(quán)鋪平道路。換句話說,在數(shù)據(jù)成為現(xiàn)代世界最有用的商品之一的同時,它也需要成為最便宜的商品之一。


來源:新浪科技

作者:

編輯:jiyang

圖片來源:

本文鏈接: http://givenhand.cn/article/20180705/500.html

  • 人工智能
免責(zé)聲明:本網(wǎng)站出于傳播商業(yè)信息之目的進行轉(zhuǎn)載發(fā)布,不代表 AIUST.Com 立場。本文所涉文、圖、音視頻等資料之一切權(quán)利和法律責(zé)任歸提供方所有和承擔(dān)。本網(wǎng)站對文中的圖文等所有信息的真實性不作任何保證或承諾,請讀者僅作參考,并自行核實相關(guān)內(nèi)容。本網(wǎng)站的任何內(nèi)容僅供參考,不能做為投資、采購或行為決策依據(jù),據(jù)此操作者風(fēng)險自擔(dān)。

相關(guān)文章

資訊

原創(chuàng)

薦讀

  • 5G+AR加持 晨星機器人掀起“智能化+人機交互”制造新趨勢 5G+AR加持 晨星機器人掀起“智能化+人機交互”制造新趨勢

    2021世界制造業(yè)大會于11月22日在合肥落下帷幕。為期四天的大會中,作為向世界展示智能制造全面能力的窗口,聯(lián)想展示了一系列讓人驚喜的創(chuàng)新產(chǎn)品?,F(xiàn)場展示的ThinkPad X1 Fold整體重量僅有1公斤,折疊起來之后的厚度大約為24毫米。當保持半開狀態(tài)時,可以像拿本書一樣握住,并且能同時運行兩個應(yīng)用程序。使用固定在中間的鍵盤之后,瞬間變...

  • 智能手機競爭中失敗,日本在聯(lián)網(wǎng)汽車領(lǐng)域舉步維艱 智能手機競爭中失敗,日本在聯(lián)網(wǎng)汽車領(lǐng)域舉步維艱

    據(jù)外媒報道,在制造帶有數(shù)字聯(lián)網(wǎng)服務(wù)的汽車的競爭中,豐田汽車和日產(chǎn)汽車面臨著被本土市場拖累的風(fēng)險。與美國和歐洲的汽車消費者不同的是,日本消費者不愿意為這些聯(lián)網(wǎng)功能和服務(wù)買單。結(jié)果就是:日本只有10%的汽車...

  • 2020年河南省將推廣應(yīng)用3萬臺工業(yè)機器人 2020年河南省將推廣應(yīng)用3萬臺工業(yè)機器人

    到2020年,推廣應(yīng)用3萬臺工業(yè)機器人,建設(shè)1000條智能生產(chǎn)線、300個智能車間、150個智能工廠……4月16日,在2018兩岸智能裝備制造鄭州論壇上,河南省工信委發(fā)布了《2017年河南省智能制造白皮書》,河南智能制造的2020...

熱門標簽