當前位置:建材學院  >  人工智能的六大倫理原則
協會動態

企業推薦

建材學院

人工智能的六大倫理原則

2019-6-2 21:43:02 關鍵字: 來源:

Tim O’Brien 企業思想家 昨天

AI.webp.jpg

導語


我們的原則是要采取問責制,當出現了不好的結果,不能讓機器或者人工智能系統當替罪羊,人必須是承擔責任的。


轉載|財經雜志

文|Tim O’Brien

題圖|全景網


2018年,微軟發表了《未來計算》(The Future Computed)一書,其中提出了人工智能開發的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任


首先是公平性。公平性是指對人而言,不同區域的人、不同等級的所有人在AI面前是平等的,不應該有人被歧視。


人工智能數據的設計均始于訓練數據的選擇,這是可能產生不公的第一個環節。訓練數據應該足以代表我們生存的多樣化的世界,至少是人工智能將運行的那一部分世界。以面部識別、情緒檢測的人工智能系統為例,如果只對成年人臉部圖像進行訓練,這個系統可能就無法準確識別兒童的特征或表情。


確保數據的“代表性”還不夠,種族主義和性別歧視也可能悄悄混入社會數據。假設我們設計一個幫助雇主篩選求職者的人工智能系統,如果用公共就業數據進行篩選,系統很可能會“學習”到大多數軟件開發人員為男性,在選擇軟件開發人員職位的人選時,該系統就很可能偏向男性,盡管實施該系統的公司想要通過招聘提高員工的多樣性。


如果人們假定技術系統比人更少出錯、更加精準、更具權威,也可能造成不公。許多情況下,人工智能系統輸出的結果是一個概率預測,比如“申請人貸款違約概率約為70%”,這個結果可能非常準確,但如果貸款管理人員將“70%的違約風險”簡單解釋為“不良信用風險”,拒絕向所有人提供貸款,那么就有三成的人雖然信用狀況良好,貸款申請也被拒絕,導致不公。因此,我們需要對人進行培訓,使其理解人工智能結果的含義和影響,彌補人工智能決策中的不足。


第二是可靠性和安全性它指的是人工智能使用起來是安全的、可靠的,不作惡的。


目前全美熱議的一個話題是自動駕駛車輛的問題。之前有新聞報道,一輛行駛中的特斯拉系統出現了問題,車輛仍然以每小時70英里的速度在高速行駛,但是駕駛系統已經死機,司機無法重啟自動駕駛系統。


想象一下,如果你要發布一個新藥,它的監管、測試和臨床試驗會受到非常嚴格的監管流程。但是,為什么自動駕駛車輛的系統安全性完全是松監管甚至是無監管的?這就是一種對自動化的偏見,指的是我們過度相信自動化。這是一個很奇怪的矛盾:一方面人類過度地信賴機器,但是另一方面其實這與人類的利益是沖突的。


另一個案例發生在舊金山,一個已經喝暈了的特斯拉車主直接進到車里打開了自動駕駛系統,睡在車里,然后這輛車就自動開走了。這個特斯拉的車主覺得,“我喝醉了,我沒有能力繼續開車,但是我可以相信特斯拉的自動駕駛系統幫我駕駛,那我是不是就不違法了?”但事實上這也屬于違法的行為。


可靠性、安全性是人工智能非常需要關注的一個領域。自動駕駛車只是其中一個例子,它涉及到的領域也絕不僅限于自動駕駛。


第三是隱私和保障,人工智能因為涉及到數據,所以總是會引起個人隱私和數據安全方面的問題。


美國一個非常流行的健身的App叫Strava,比如你騎自行車,騎行的數據會上傳到平臺上,在社交媒體平臺上有很多人就可以看到你的健身數據。問題隨之而來,有很多美國軍事基地的在役軍人也在鍛煉時用這個應用,他們鍛煉的軌跡數據全部上傳了,整個軍事基地的地圖數據在平臺上就都有了。美國軍事基地的位置是高度保密的信息,但是軍方從來沒想到一款健身的App就輕松地把數據泄露出去了。


第四是人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。


舉個領英的例子,他們有一項服務叫“領英經濟圖譜搜索”。領英、谷歌和美國一些大學聯合做過一個研究,研究通過領英實現職業提升的用戶中是否存在性別差異?這個研究主要聚焦了全美排名前20 MBA的一些畢業生,他們在畢業之后會在領英描述自己的職業生涯,他們主要是對比這些數據。研究的結論是,至少在全美排名前20的MBA的畢業生中,存在自我推薦上的性別差異。如果你是一個男性的MBA畢業生,通常你在毛遂自薦的力度上要超過女性。


如果你是一個公司負責招聘的人,登錄領英的系統,就會有一些關鍵字域要選,其中有一頁是自我總結。在這一頁上,男性對自己的總結和評估通常都會高過女性,女性在這方面對于自我的評價是偏低的。所以,作為一個招聘者,在招聘人員的時候其實要獲得不同的數據信號,要將這種數據信號的權重降下來,才不會干擾對應聘者的正常評估。


但是,這又涉及到一個程度的問題,這個數據信號不能調得過低,也不能調得過高,要有一個正確的度。數據能夠為人類提供很多的洞察力,但是數據本身也包含一些偏見。那我們如何從人工智能、倫理的角度來更好地把握這樣一個偏見的程度,來實現這種包容性,這就是我們說的人工智能包容性的內涵。


在這四項價值觀之下還有兩項重要的原則:透明度和問責制,它們是所有其他原則的基礎。


第五是透明度。在過去十年,人工智能領域突飛猛進最重要的一個技術就是深度學習,深度學習是機器學習中的一種模型,我們認為至少在現階段,深度學習模型的準確度是所有機器學習模型中最高的,但在這里存在一個它是否透明的問題。透明度和準確度無法兼得,你只能在二者權衡取舍,如果你要更高的準確度,你就要犧牲一定的透明度。


在李世石和AlphaGo的圍棋賽中就有這樣的例子,AlphaGo打出的很多手棋事實上是人工智能專家和圍棋職業選手根本無法理解的。如果你是一個人類棋手,你絕對不會下出這樣一手棋。所以到底人工智能的邏輯是什么,它的思維是什么,人類目前不清楚。


所以我們現在面臨的問題是,深度學習的模型很準確,但是它存在不透明的問題。如果這些模型、人工智能系統不透明,就有潛在的不安全問題。


為什么透明度這么重要?舉個例子,20世紀90年代在卡耐基梅隆大學,有一位學者在做有關肺炎方面的研究,其中一個團隊做基于規則的分析,幫助決定患者是否需要住院。基于規則的分析準確率不高,但由于基于規則的分析都是人類能夠理解的一些規則,因此透明性好。他們“學習”到哮喘患者死于肺炎的概率低于一般人群。


然而,這個結果顯然違背常識,如果一個人既患有哮喘,也患有肺炎,那么死亡率應該是更高的。這個研究“學習”所得出的結果,其原因在于,一個哮喘病人由于常常會處于危險之中,一旦出現癥狀,他們的警惕性更高、接受的醫護措施會更好,因此能更快得到更好的醫療。這就是人的因素,如果你知道你有哮喘,你就會迅速采取應急措施。


人的主觀因素并沒有作為客觀的數據放在訓練模型的數據圖中,如果人類能讀懂這個規則,就可以對其進行判斷和校正。但如果它不是基于規則的模型,不知道它是通過這樣的規則來判斷,是一個不透明的算法,它得出了這個結論,人類按照這個結論就會建議哮喘患者不要住院進行治療,這顯然是不安全的。


所以,當人工智能應用于一些關鍵領域,比如醫療領域、刑事執法領域的時候,我們一定要非常小心。比如某人向銀行申請貸款,銀行拒絕批準貸款,這個時候作為客戶就要問為什么,銀行不能說我是基于人工智能,它必須給出一個理由。


第六是問責。人工智能系統采取了某個行動,做了某個決策,就必須為自己帶來的結果負責。人工智能的問責制是一個非常有爭議的話題,我們還是回到自動駕駛車上進行討論。確實,它還涉及到一個法律或者立法的問題。在美國已經出現多例因為自動駕駛系統導致的車禍。如果是機器代替人來進行決策、采取行動出現了不好的結果,到底是誰來負責?我們的原則是要采取問責制,當出現了不好的結果,不能讓機器或者人工智能系統當替罪羊,人必須是承擔責任的。


但現在的問題是我們不清楚基于全世界的法律基礎而言,到底哪個國家具備能力處理類似案件的能力。(美國)很多案件的裁決是基于“判例法”進行判定的,但是對于這樣一些案例,我們沒有先例可以作為法庭裁決的法律基礎。


其實,不光是自動駕駛,還有其他很多領域,比如刑事案件問題,還有涉及軍事領域的問題。現在有很多的武器已經自動化或者是人工智能化了,如果是一個自動化的武器殺傷了人類,這樣的案件應該如何裁定?


這就要牽涉到法律中的法人主體的問題,人工智能系統或全自動化系統是否能作為法人主體存在?它會帶來一系列的法律的問題:首先,人工智能系統是否可以判定為是一個法律的主體?如果你判定它是一個法律的主體,那就意味著人工智能系統有自己的權力,也有自己的責任。如果它有權力和責任,就意味著它要對自己的行為負責,但是這個邏輯鏈是否成立?如果它作為一個法律主體存在,那么它要承擔相應的責任,也享有接受法律援助的權利。因此,我們認為法律主體一定要是人類。


作者為微軟人工智能項目總經理,編輯:韓舒淋,原載2019年5月27日《財經》雜志


(本文首刊于2019年5月27日出版的《財經》雜志)

本文僅供交流使用,不做任何商業用途,如有侵權請聯系我們刪除。謝謝!

特马三字来