跨學科問題 2018-19/人工智慧中的主觀與客觀真理
人工智慧(AI)通常被認為可以更容易地做出客觀決策。在這裡,客觀性是指基於批判性思維和科學證據的結論,其中結論是無可爭辯的,並且只有一個正確答案[1]。人工智慧由公式和演算法構成,可以處理海量資料得出比人類能夠達到的更準確、因此更客觀的結論[2]。
一個例子是機器學習和識別圖片中主體的任務。雖然對人類來說很簡單,但人工智慧需要用海量資料進行重複訓練才能區分飲料、桌子和凳子。人工智慧中的神經網路從一個或多個輸入(例如圖片)開始,並將它們處理成一個或多個輸出(例如圖片是否顯示葡萄酒或啤酒)。這些輸出包含一組複雜的“神經元”,這些神經元被分組到層中,其中一層透過加權連線與下一層互動——每個神經元都攜帶一個值,該值與後續層中的神經元相乘。[3] 諸如 Eθ(θˆ) − θ[4]之類的偏差函式可以被編碼到神經網路中並透過各層傳遞。因此,輸入可以傳播到整個網路,並且機器被訓練以做出儘可能準確的預測和得出結論。這種持續的測試可以為極其複雜的問題做出決策[5]。
正如埃森哲在其用於人工智慧的教與測框架中所使用的那樣[6],前面提到的持續連線和資料處理可以被跟蹤,並且可以對人工智慧系統得出的決策或結論提出質疑。人工智慧甚至可以被編碼為證明其得出的決策[7]。這可以讓人們安心,即人工智慧正在得出以人為本、無偏見和公平的結論——客觀性。
然而,人們經常爭論說,人工智慧做出的所謂客觀決策最終會變得主觀,因為所使用的資料集存在偏差[8][9]。在這裡,主觀性是指基於個人意見、經驗和感受而非科學證據的信念[10]。作為人類,我們都有自己的偏見,沒有人能夠真正客觀[11]。由於我們既建立人工智慧本身又建立其處理的資料,因此可以隱含地認為人工智慧永遠不會客觀。
性別和種族偏見通常無意識地輸入到演算法中。一個著名的例子是人工智慧人臉識別軟體將黑人女性識別為男性[12][13]。有人認為這是由於計算機科學家和工程師的無意識偏見造成的,其中大多數是白人和男性[13]。同樣,在谷歌上搜索圖片時,輸入“CEO”會顯示男性的圖片,而輸入“助手”則會顯示女性的圖片[14]。這是基於關於CEO長相的偏見資料集。大多數CEO確實是男性,但這基於歷史上的父權思想,這些思想通常被認為是錯誤的[15]。
隨著人工智慧在日常生活中變得越來越突出;自動駕駛汽車、谷歌家居裝置、廣告以及更多應用,需要考慮倫理問題。倫理可以被定義為解決道德問題的方法[16],但倫理可以根據一個人的意見、信仰和觀點進行不同的解釋,因此試圖建立符合倫理的人工智慧可能會導致許多問題。特別是當這些決策與可能存在偏差的資料相結合時[17]。
從數學的、客觀的角度來看;人工智慧提供了人類自身無法實現的強大的計算和決策能力,從而更深入地瞭解複雜問題。從主觀的、倫理的和哲學的角度來看;人工智慧永遠不會真正客觀[18],並且我們很可能會遇到人工智慧“出錯”的重大問題,例如2010年閃電崩盤,因為它試圖尋找“真相”或得出邏輯結論[19][20]。
例如,人工智慧可以用於招聘,以消除招聘中的無意識偏見[21]。但是,如果使用機器學習演算法,關於性別、種族、殘疾等的資料可能會告知人工智慧做出聘用白人、異性戀、健全男性——根據偏差資料,他們風險最低,因此是員工中最具成本效益的選擇[22]。它很容易突出我們自己的偏見並放大它們[20]。而且,由於機器學習本身就是黑盒——我們輸入資料,然後輸出資料,在沒有審計結果的情況下,我們可能完全不知道人工智慧使用哪些資料點來為其決策提供依據[22]。
當人工智慧面臨與倫理問題相關的難題時,它難以真正客觀[23]。但是,從跨學科的角度評估人工智慧可以確保人們已經考慮了人工智慧及其決策的影響。顯然,計算機科學和電子工程在建立這項技術方面發揮著巨大作用,但在人工智慧的開發過程中,還需要哲學和社會科學(如人類學、經濟學和心理學),以確保我們開發的系統能夠“思考”其結論的其他影響,從而使人工智慧既有用又安全,以便人類在未來使用。
- ↑ Mulder, D. H, 客觀性 [網際網路]。索諾瑪州立大學,加利福尼亞州:網際網路哲學百科全書;[更新於 2004 年 9 月 9 日;引用於 2018 年 12 月 9 日]。可從以下網址獲取:https://www.iep.utm.edu/objectiv/
- ↑ ICO,大資料、人工智慧、機器學習和資料保護 [網際網路]。英國柴郡:資訊專員辦公室;[更新於 2017 年 5 月 17 日;引用於 2018 年 12 月 9 日]。可從以下網址獲取:https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf
- ↑ Marr, B.,什麼是人工神經網路——絕對任何人都能理解的簡單解釋 [網際網路]。福布斯;[更新於 2018 年 9 月 24 日;引用於 2018 年 12 月 9 日]。可從以下網址獲取:https://www.forbes.com/sites/bernardmarr/2018/09/24/what-are-artificial-neural-networks-a-simple-explanation-for-absolutely-anyone/#4e593bd11245
- ↑ 估計、偏差和均方誤差 [網際網路]。英國劍橋:統計實驗室;[更新於 2018 年;引用於 2018 年 12 月 7 日],第 2 頁。可從以下網址獲取:http://www.statslab.cam.ac.uk/Dept/People/djsteaching/S1B-15-02-estimation-bias-4.pdf
- ↑ Luger, G. F.,“連線主義網路基礎”。在:人工智慧:複雜問題解決的結構和策略。埃塞克斯:皮爾遜教育有限公司;2005 年。第 455 頁
- ↑ Bennink, J.,埃森哲推出新型人工智慧測試服務 [網際網路]。芝加哥:埃森哲;[更新於 2018 年 2 月 20 日;引用於 2018 年 12 月 9 日]。可從以下網址獲取:https://newsroom.accenture.com/news/accenture-launches-new-artificial-intelligence-testing-services.htm
- ↑ Cathelat, B.,'我們應該讓AI為我們做出多少決定?' 載於:Brigitte Lasry, B. 和 Kobayashi, H.,聯合國教科文組織和Netexplo. 人類決策:關於人工智慧的思考. 法國巴黎:聯合國教科文組織出版社;2018年. 第132-138頁. 可從以下網址獲取:http://unesdoc.unesco.org/images/0026/002615/261563E.pdf
- ↑ Vanian J.,揭露AI的偏差問題[網際網路]。紐約:財富雜誌;[更新於2018年6月25日;引用於2018年12月2日],可從以下網址獲取:http://fortune.com/longform/ai-bias-problem/
- ↑ Srinivasan, R.,'人工智慧的倫理困境' 載於:Brigitte Lasry, B. 和 Kobayashi, H.,聯合國教科文組織和Netexplo. 人類決策:關於人工智慧的思考. 法國巴黎:聯合國教科文組織出版社;2018年. 第107頁. 可從以下網址獲取:http://unesdoc.unesco.org/images/0026/002615/261563E.pdf
- ↑ Francescotti, R.,主觀性[網際網路]。阿賓登:勞特利奇哲學百科全書;[更新於2017年4月24日;引用於2018年12月9日]. 可從以下網址獲取:https://www.rep.routledge.com/articles/thematic/subjectivity/v-1
- ↑ Naughton, J.,別擔心AI會變壞——幕後操縱者才是危險[網際網路]。倫敦:衛報;[更新於2018年2月25日;引用於2018年12月4日]。可從以下網址獲取:https://www.theguardian.com/commentisfree/2018/feb/25/artificial-intelligence-going-bad-futuristic-nightmare-real-threat-more-current
- ↑ Lohr, S.,如果你是一位白人男性,面部識別技術是準確的[網際網路]。紐約:紐約時報;[更新於2018年2月9日;引用於2018年12月3日]。可從以下網址獲取:https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
- ↑ a b Buolamwini, J. 和 Gebru, T. 性別陰影:商業性別分類中的交叉準確性差異。JMLR. 2018. [引用於2018年12月3日] 81:1–15. 可從以下網址獲取:http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
- ↑ Devlin, H.,研究表明人工智慧程式存在種族和性別偏見[網際網路]。倫敦:衛報;[更新於2017年4月13日;引用於2018年12月4日]。可從以下網址獲取:https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals
- ↑ Johnson, A. G.,'什麼是父權制?' 載於:性別之結. 賓夕法尼亞州費城:坦普爾大學出版社;1997年. 第6頁
- ↑ Mulder, D. H,倫理[網際網路]。加利福尼亞州索諾馬州立大學:網際網路哲學百科全書;[更新於2004年9月9日;引用於2018年12月9日]。可從以下網址獲取:https://www.iep.utm.edu/ethics/
- ↑ Bostrom, N. 和 Yudkowsky, E. '人工智慧的倫理'。載於:人工智慧的劍橋手冊. 劍橋:劍橋大學出版社;2011年. 第316-334頁. 可從以下網址獲取:https://nickbostrom.com/ethics/artificial-intelligence.pdf [引用於2018年12月9日]
- ↑ Moor, J. H.,'機器倫理的性質、重要性和難度'。載於:Anderson, M. 和 Anderson, S. L. 機器倫理. 紐約:劍橋大學出版社;2011年. 第13頁. 可從以下網址獲取:https://books.google.co.uk/books?id=N4IF2p4w7uwC&printsec=frontcover&source=gbs_ge_summary_r&cad=0#v=onepage&q&f=false [引用於2018年12月3日]
- ↑ Jøsang, A.,用主觀邏輯進行人工推理[網際網路]。挪威特隆赫姆:挪威科技大學;[更新於1997年;引用於2018年12月3日]。可從以下網址獲取:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.55.6741&rep=rep1&type=pdf
- ↑ a b Newman, D.,您的AI並非沒有偏見[網際網路]。新澤西州澤西市:福布斯;[更新於2017年9月12日;引用於2018年12月3日]。可從以下網址獲取:https://www.forbes.com/sites/danielnewman/2017/09/12/your-artificial-intelligence-is-not-bias-free/#56ed5cfbc783
- ↑ Lee, A. J.,就業歧視訴訟中的無意識偏見理論,哈佛民權-公民自由法律評論。2005. [引用於2018年12月3日];40(2): 481-504. 可從以下網址獲取:https://pdfs.semanticscholar.org/62c3/a2d2317e9db3931c65870d23834621097770.pdf
- ↑ a b Tufekci, Z.,機器智慧使人類道德更加重要[網際網路]。加拿大班夫:TEDSummit;[更新於2016年6月;引用於2018年12月3日]。可從以下網址獲取:https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important/discussion?referrer=playlist-talks_on_artificial_intelligen#t-1047395
- ↑ Polonski, V.,人工智慧倫理的難題——將道德融入機器的三條指導方針[網際網路],法國巴黎:經濟合作與發展組織主辦的論壇網路;[更新於2018年2月28日;引用於2018年12月3日]。可從以下網址獲取:https://www.oecd-forum.org/users/80891-dr-vyacheslav-polonski/posts/30743-the-hard-problem-of-ai-ethics-three-guidelines-for-building-morality-into-machines