人民網(wǎng)-人民日報 2018年08月20日
隨著(zhù)數據的積累、計算機算力的躍升和算法的優(yōu)化,人工智能正在讓生活變得高效。語(yǔ)音識別、圖像識別使身份認證更可信賴(lài),短短幾秒就能證明“你就是你”;智能診療和自動(dòng)駕駛,更讓人們看到了戰勝疾病、減少事故的新機會(huì );人工智能還可以輕松戰勝?lài)甯呤?,?xiě)出優(yōu)美的詩(shī)句……其自主性和創(chuàng )造性正在模糊人和機器的分野。
但是,當隱私侵犯、數據泄露、算法偏見(jiàn)等事件層出不窮時(shí),人們又不得不反思:人工智能的持續進(jìn)步和廣泛應用帶來(lái)的好處是巨大的,為了讓它真正有益于社會(huì ),同樣不能忽視的還有對人工智能的價(jià)值引導、倫理調節以及風(fēng)險規制。
“刷臉”應用更廣泛,對隱私權的威脅值得重視
“刷臉”進(jìn)站、“刷臉”支付、“刷臉”簽到、“刷臉”執法……人臉識別技術(shù)正走進(jìn)更為廣闊的應用場(chǎng)景,與指紋、虹膜等相比,人臉是一個(gè)具有弱隱私性的生物特征,因此,這一技術(shù)對于公民隱私保護造成的威脅性尤其值得重視?!叭四槇D像或視頻廣義上講也是數據,如果沒(méi)有妥善保管和合理使用,就會(huì )容易侵犯用戶(hù)的隱私?!敝袊鐣?huì )科學(xué)院哲學(xué)研究所研究員段偉文說(shuō)。
通過(guò)數據采集和機器學(xué)習來(lái)對用戶(hù)的特征、偏好等“畫(huà)像”,互聯(lián)網(wǎng)服務(wù)商進(jìn)而提供一些個(gè)性化的服務(wù)和推薦等,從正面看是有利于供需雙方的一種互動(dòng)。但對于消費者來(lái)說(shuō),這種交換是不對等的。就頻頻發(fā)生的個(gè)人數據侵權的事件來(lái)看,個(gè)人數據權利與機構數據權力的對比已經(jīng)失衡,在對數據的收集和使用方面,消費者是被動(dòng)的,企業(yè)和機構是主動(dòng)的。段偉文表示,“數據實(shí)際上成為被企業(yè)壟斷的資源,又是驅動(dòng)經(jīng)濟的要素?!比绻碳抑粡淖陨砝娉霭l(fā),就難免會(huì )對個(gè)人數據過(guò)度使用或者不恰當披露。
“大數據時(shí)代,個(gè)人在互聯(lián)網(wǎng)上的任何行為都會(huì )變成數據被沉淀下來(lái),而這些數據的匯集都可能最終導致個(gè)人隱私的泄露?!焙蠋煼洞髮W(xué)人工智能道德決策研究所所長(cháng)李倫認為,用戶(hù)已經(jīng)成為被觀(guān)察、分析和監測的對象。
算法應更客觀(guān)透明,要避免歧視與“殺熟”
在信息爆炸的時(shí)代,數據的處理、分析、應用很多都是由算法來(lái)實(shí)現的,越來(lái)越多的決策正被算法所取代。從內容推薦到廣告投放,從信用額度評估到犯罪風(fēng)險評估,算法無(wú)處不在——它操作的自動(dòng)駕駛或許比司機更加安全,它得出的診斷結果可能比醫生更準確,越來(lái)越多的人開(kāi)始習慣一個(gè)由算法構建的“打分”社會(huì )。
作為一種信息技術(shù),算法在撥開(kāi)信息和數據“迷霧”的同時(shí),也面臨著(zhù)倫理上的挑戰:利用人工智能來(lái)評估犯罪風(fēng)險,算法可以影響刑罰;當自動(dòng)駕駛汽車(chē)面臨危險,算法可以決定犧牲哪一方;應用于武器系統的算法甚至可以決定攻擊的目標……由此引發(fā)了一個(gè)不容忽視的問(wèn)題:如何確保算法的公正?
騰訊研究院法律研究中心高級研究員曹建峰認為,即使作為一種數學(xué)表達,算法本質(zhì)上也是“以數學(xué)方式或者計算機代碼表達的意見(jiàn)”。算法的設計、模型、目的、成功標準、數據使用等,都是編程人員的主觀(guān)選擇,偏見(jiàn)會(huì )有意或者無(wú)意地嵌入算法,使之代碼化?!八惴ú⒉豢陀^(guān),在算法決策起作用的諸多領(lǐng)域,算法歧視也并不鮮見(jiàn)?!?/p>
“算法決策多數情況下是一種預測,用過(guò)去的數據預測未來(lái)的趨勢,算法模型和數據輸入決定著(zhù)預測的結果,因此這兩個(gè)要素也就成為算法歧視的主要來(lái)源?!辈芙ǚ褰忉屨f(shuō),除了主觀(guān)因素以外,數據本身也會(huì )影響算法的決策和預測?!皵祿巧鐣?huì )現實(shí)的反映,數據可能是不正確、不完整或者過(guò)時(shí)的,訓練數據本身也可能是歧視性的,用這樣的數據訓練出來(lái)的算法系統,自然也會(huì )帶上歧視的烙印?!?/p>
2016年3月,微軟人工智能聊天機器人Tay上線(xiàn),在與網(wǎng)民互動(dòng)過(guò)程中,很短時(shí)間內就“誤入歧途”,集性別歧視、種族歧視于一身,最終微軟不得不讓它“下崗”。曹建峰認為,算法傾向于將歧視固化或放大,使歧視長(cháng)存于整個(gè)算法之中。因此,如果將算法應用在犯罪評估、信用貸款、雇傭評估等關(guān)系人們切身利益的場(chǎng)合,一旦產(chǎn)生歧視,就可能危害個(gè)人乃至社會(huì )的利益。
此外,深度學(xué)習還是一個(gè)典型的“黑箱”算法,可能連設計者都不知道算法如何決策,因而要在系統中發(fā)現是否存在歧視和歧視根源,技術(shù)上也較為困難?!八惴ǖ摹谙洹卣魇蛊錄Q策邏輯缺乏透明性和可解釋性?!崩顐愓f(shuō),隨著(zhù)大數據“殺熟”、算法歧視等事件的出現,社會(huì )對算法的質(zhì)疑也逐漸增多。政府和企業(yè)在使用數據的過(guò)程中,必須提高對公眾的透明度,讓選擇權回歸個(gè)人。
加強核查監管,加大對數據濫用等行為的懲戒力度
2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規劃》(以下簡(jiǎn)稱(chēng)《規劃》)?!兑巹潯窂娬{,促進(jìn)人工智能行業(yè)和企業(yè)自律,切實(shí)加強管理,加大對數據濫用、侵犯個(gè)人隱私、違背道德倫理等行為的懲戒力度。
“雖然‘刷臉’的應用越來(lái)越多,但人工智能目前仍處于起步階段,需加大對數據和隱私的保護力度,關(guān)注和防范由算法濫用所導致的決策失誤和社會(huì )不公?!痹趥€(gè)人數據權利的保護方面,段偉文建議,應促使數據交易各方對自己的行為負責,讓每個(gè)人知道自己的數據如何被處理,特別是用于其他用途的情形,減少數據濫用,讓人們清楚知道自己的“臉”還是否安全。
段偉文認為,要進(jìn)一步加強人工智能的倫理設計,對算法的理論預設、內在機制與實(shí)踐語(yǔ)境等進(jìn)行全流程追問(wèn)與核查,從算法決策的結果和影響中的不公正入手,反向核查其機制與過(guò)程有無(wú)故意或不自覺(jué)的曲解與誤導,揭示存在的問(wèn)題,并促使其修正和改進(jìn)。
在曹建峰看來(lái),應對人工智能帶來(lái)的倫理問(wèn)題,一是要構建算法治理的內外部約束機制,將人類(lèi)社會(huì )的法律、道德等規范和價(jià)值嵌入人工智能系統;二是在人工智能研發(fā)中貫徹倫理原則,促使研發(fā)人員遵守基本的倫理準則;三是對算法進(jìn)行必要的監管,提升算法自身的代碼透明性和算法決策的透明性;四是針對算法決策和歧視以及造成的人身財產(chǎn)損害,提供法律救濟。
“我們生活在一個(gè)人機共生的時(shí)代,人類(lèi)與機器之間勢必將發(fā)生各種沖突和矛盾,僅靠法律和制度很難完全解決?!崩顐惐硎?,人們還應努力提升自身的科學(xué)素養,主動(dòng)維護自身的權利,社會(huì )也應盡快建立討論人工智能倫理問(wèn)題的公共平臺,讓各方充分表達意見(jiàn),促進(jìn)共識的形成。
最新消息