資訊科技與倫理/演算法偏差與公平
演算法偏差是指當計算機系統持續出現系統性和可重複的錯誤,導致不公平的結果或基於各種因素歧視個人或主體時。通常,用來歧視特定個人的因素包括種族、性別和社會經濟地位。偏差可能出現在多個地方,包括演算法設計、演算法使用方式與預期使用方式的偏差,以及演算法訓練中使用的資料。這種偏差會對使用它的主體產生深遠的影響,並會加劇社會不平等。
演算法偏差最早出現在約瑟夫·魏森鮑姆 1976 年的著作《計算機力量與人力資源》中。魏森鮑姆首次提出,偏差可能透過提供給人工智慧的資料以及程式的編寫方式來體現[1]。由於程式只能使用其給定的規則集來處理和對資料進行決策,因此人們擔心程式會與編寫者具有相同的偏差和預期。魏森鮑姆還寫道,任何輸入程式的資料都是“人類決策過程”的另一個例子,而資料則是被選擇的。魏森鮑姆還談到了另一個演算法偏差表現出來的例子:編寫者對程式的盲目信任。魏森鮑姆談到編寫者無法理解程式的決策過程,這就像一個遊客在酒店裡穿梭,用拋硬幣的方式來決定是向左走還是向右走[1]。無論最終的解決方案是否正確,都是不可重複且不一致的。
一個來自這個時期的演算法偏差的例子是聖喬治醫院醫學院使用的申請人篩選程式。如果申請者是女性或有“外國口音”的姓名,該程式會自動扣除申請人的分數,使白人男性更容易被錄取。該程式由傑弗裡·弗朗格林博士編寫,他編寫該程式是為了減少歧視行為,並使初始申請階段更容易[2]。弗朗格林認為,將責任轉移給程式會使流程更容易也更公平。弗朗格林直接在程式中編碼了偏差,而該程式延續了人類評估者所具有的相同的種族歧視。
在現代,演算法的製作更加專業,通常會避免編寫者在規則或資料中無意引入的大多數偏差,但演算法偏差仍然會表現出來。它可能會以難以預測的方式表現出來,這些方式難以解釋。演算法和演算法偏差通常用作實現某種目的的工具,而不是作為具有權威性的虛擬工具來生成該目的,同時將其定位為虛擬手段。與其使用演算法來研究人類行為,不如將其作為定義人類行為的一種方式[3]。考慮到這一點,工作組共同建立了機器學習公平性、責任和透明度 (FAT) 小組[4]。該小組成員的想法是巡查演算法的結果,並對演算法是否有害影響進行投票,以及是否應該對其進行控制或限制。然而,許多人認為 FAT 無法有效發揮作用,因為許多成員的資金來自大型公司。
在人工智慧框架方面,可供選擇的框架越來越多。它們之間至少有點不同,因為它們是針對特定目的而設計的,例如 JAX 是一個“為高效能裝置(如 GPU 和 TPU)上的複雜數值計算而設計的”框架[5],據英特爾所說。還有許多其他可用於任何可以想到的專案的框架,因為越來越多的框架被開發出來。目前,人工智慧框架中並沒有太多倫理方面的考慮,因為它仍然是一項新興技術。然而,存在許多潛在的關注領域。例如,想象一個 AI 聊天機器人,它正在接受一個沒有考慮任何倫理的框架的訓練。該聊天機器人可能透過與人們的互動,說出一些它不應該說的話,或者洩露不應該傳播的資訊。這可能會導致公司在事件發生和可能帶來的聲譽下降之間陷入困境。
關於人工智慧的監管,許多州已經通過了許多立法。關於保護資料隱私、問責制和人工智慧透明度的立法很多。例如,根據瑞秋·賴特的觀點,“德克薩斯州 HB 2060 (2023) 就是一個例子。該法案設立了一個人工智慧諮詢委員會,由政府官員和民選官員、學者和技術專家組成。該委員會的任務是研究和監測州機構開發或部署的人工智慧系統,併發布有關資料隱私和防止演算法歧視的政策建議。”[6] 科技政策辦公室還制定了一個潛在人工智慧權利法案的藍圖,該藍圖概述了在使用人工智慧或使用人工智慧時人們應享有的權利。它涵蓋的權利包括:免受不安全系統的保護、免受演算法歧視的保護、資料隱私措施、瞭解何時使用人工智慧的權利,以及在不想使用人工智慧的情況下選擇不使用人工智慧的權利[7]。
預測性警務演算法利用資料分析和機器學習方法來預測犯罪可能發生的區域,並相應地分配執法資源。支持者認為這些系統可以減少犯罪並提高公共安全,但批評人士擔心這些系統可能存在偏見,並侵犯公民自由。
Rudin 等人 2020 年的一項研究考察了芝加哥預測性警務演算法的應用。研究發現,這些演算法主要集中在黑人和西班牙裔地區,導致對少數民族社群的監控和執法不平等。此外,這些演算法依賴於過去的犯罪資料,這些資料可能反映出警務方法中的偏見,並維持系統性差異。
預測性警務演算法的應用引發了關於公平、透明和問責制的倫理問題。批評者認為,這些系統可能會加劇警務中的現有不平等現象,並損害執法部門與邊緣化群體之間的信任。
倡導民權的群體、社群組織和倡導者正在推動在建立和使用預測性警務演算法(如 SSL)方面實現更大的透明度、社群參與和問責制。
某些地區已經實施了立法來監督預測性警務演算法的使用,重點是透明度、問責制以及防止偏見和歧視。
芝加哥警察局戰略目標名單 (SSL) 的案例表明,預測性警務演算法具有複雜的倫理和社會後果。雖然這些演算法有可能減少犯罪並提高公共安全,但它們也帶來了關於透明度、問責制、公平以及偏見和歧視風險的重要問題。解決這些障礙需要認真思考應該指導預測性警務技術建立和使用的倫理原則和價值觀,以確保它們促進正義、公平以及對公民自由的保護。
為了幫助招聘頂尖人才,亞馬遜在 2014 年建立了一個由人工智慧驅動的招聘工具。在十年的時間裡,提交給亞馬遜的簡歷被用來訓練人工智慧模型。由於男性在計算機領域占主導地位,因此大多數這些簡歷都是由男性提供的。因此,該系統學會了貶低女子大學的畢業生,並懲罰包含“女子”一詞的簡歷。由於無法完全解決有偏見系統的故障,亞馬遜最終在接下來的幾年裡放棄了該專案。這個例子表明,如果人工智慧演算法沒有得到適當的審查和糾正,它們可能會繼承和放大訓練資料中包含的社會偏見。它成為了一個警示,提醒人們在沒有足夠的減輕偏見和測試措施的情況下使用人工智慧招聘工具的道德風險。該事件突出了在人工智慧領域擁有多元化團隊以及在開發人工智慧時進行徹底的偏見評估的必要性。
在反映過去偏見或社會差異的偏斜資料集上訓練的演算法將識別並加強這些偏見。ProPublica 在 2018 年的報告中發現,在美國刑事司法系統中使用的 COMPAS 軟體存在種族偏見。該演算法更有可能將黑人被告錯誤地歸類為高風險,而白人被告則不然。這突出了一個常見的問題 - 不平衡的資料集。如果某些人口統計資料在訓練資料中代表性不足,那麼該演算法可能對這些群體表現不佳。[9]
演算法的設計方式可能會引入偏見。關於因素和權重的選擇可能會導致歧視性結果。即使使用無偏見的資料,模型也可能由於演算法的設計或假設而表現出偏見。2020 年,美國住房和城市發展部 (HUD) 對 Facebook 提出了投訴,指責該公司的廣告平臺允許基於種族、性別和其他受保護特徵的歧視。這種情況突出了廣告和住房中偏見演算法的法律和道德後果。[10]
依賴使用者資料的演算法有可能隨著時間的推移而放大現有的偏見。如果演算法偏袒特定群體,它可能會產生結果,在使用者互動中延續這種偏見。當融入決策過程時,產生有偏見結果的演算法會加劇社會偏見,形成一個持續迴圈。YouTube 的推薦演算法因推廣極端主義內容而受到批評。這種偏見源於演算法傾向於推薦與使用者先前觀看內容類似的內容,這可能會導致使用者走向激進化道路。[11]
許多演算法是複雜的“黑箱”。難以理解它們如何做出決策,因此難以識別和解決偏見。美國國土安全部牽涉到了一名美國公民,該公民因海關與邊境保護局 (CBP) 使用的演算法而被選中在邊境接受額外檢查。原告因演算法缺乏透明度而被法院賦予了對演算法做出決定的權利。[12]
在演算法決策中實現各種公平概念之間的平衡非常困難,因為優先考慮一項公平指標可能意味著犧牲另一項指標。2016 年,谷歌研究人員發現,與膚色較淺的人相比,影像識別演算法對膚色較深的人的錯誤率更高。當他們試圖透過微調模型來降低總體錯誤率來消除這種偏見時,他們發現膚色較淺的人的錯誤率上升了,這表明解決演算法偏見所需的權衡。[13]
旨在防止歧視的現行法律,例如美國的 1964 年民權法案,禁止與受保護特徵相關的偏見,例如種族、性別和宗教。然而,算法系統的複雜性使得應用這些法律並查明歧視意圖變得具有挑戰性。2019 年,蘋果卡被指控存在性別偏見,因為發現女性獲得的信用額度明顯低於男性,儘管她們的信用評分相當。蘋果和高盛因在確定該卡的信用額度方面缺乏透明度而受到批評。[14]
歐盟的 GDPR 和美國的 CCPA 等法律旨在保護個人對其個人資料如何收集、使用和共享的權利。越來越多的規則側重於演算法的透明度和問責制,這使得企業必須為對個人產生重大影響的自動化決策提供理由。法國資料保護局 (CNIL) 於 2019 年對谷歌處以 5000 萬歐元的罰款,原因是違反了 GDPR 關於個性化廣告透明同意方面的規定。2020 年,歐盟的 GDPR 被用來質疑 Clearview AI 使用的面部識別技術。該公司因未經同意從歐盟個人收集生物識別資訊而受到處罰。[15]
由於技術創新的快速發展和數字平臺的全球覆蓋範圍,政策制定者在監管演算法偏差和公平方面面臨著重大挑戰。建立監管結構的嘗試經常遭到行業參與者的反對,他們擔心會抑制創新或實施繁重的合規標準。儘管如此,在不同領域正在進行監管努力以解決演算法透明度、問責制和公平問題。歐盟委員會提議的人工智慧法案旨在規範高風險人工智慧系統,包括可能對個人造成傷害的可能存在偏見的人工智慧系統。[16]
人工智慧演算法透過資料進行訓練;它們從我們提供的資料集中學習。但是,如果資料包含偏差,演算法可能會無意中強化甚至誇大這些偏差。為了防止這種情況,必須仔細選擇和準備一個多樣化、全面平衡的資料集。這樣可以確保識別和最小化任何潛在的偏差,從而實現更公平的人工智慧系統。
即使在公正的訓練資料的情況下,由於其設計、假設或最佳化目標,演算法本身也可能產生偏差。評估演算法在各個子群體中的表現至關重要,並確保它不會歧視任何一個群體。
人工智慧系統經常使用大量個人資料,這會引發隱私問題。為了保護人們的隱私,必須建立強大的資料保護機制,包括匿名化、資料加密和訪問控制。
組織可以建立自主監督工具來監視人工智慧系統的行為,並使用演算法審計程式來促進人工智慧的責任和透明度。演算法影響評估是一種透明度工具,可以提高可信度和問責制。
確保人工智慧團隊具有包容性和多元化是減少人工智慧系統建立和使用過程中偏差的一種方法。多元化的觀點和生活經歷有助於識別和解決潛在的偏差和倫理困境。
即使人工智慧演算法能夠自動化決策流程,也必須始終保持人工監督和責任。尤其是在敏感或高風險情況下,人類應該檢查和確認演算法的結論。
人工智慧系統中的偏差可能會隨著時間的推移而出現或發生變化,因為它們在動態環境中執行。為了保持公平並減少新出現的偏差,必須定期監控演算法的效能並進行適當的更新。
在人工智慧倫理領域,尤其是在演算法偏差和準確性方面建立未來指標至關重要,以確保公平準確的人工智慧系統。人工智慧中的偏差來自導致負面結果的系統性錯誤。這通常源於開發階段的假設,例如資料收集、演算法設計和模型訓練。例如,在偏差資料上訓練的評分演算法可能會偏袒來自特定人群的候選人,從而在人工智慧系統中保留現有的偏差。
這確保了人工智慧模型公平地對待所有人,無論其年齡、性別、種族和社會經濟地位。技術經理必須定義和使用指標來確保開發道德的人工智慧系統。雖然美國政府還沒有這樣的立法,但圍繞人工智慧和公平的法律環境正在發生變化。現行法律,如《公平信用報告法》和《平等信貸機會法》,影響著人工智慧公平。在世界範圍內,各國正在推進人工智慧立法,其中歐盟和加拿大在促進人工智慧系統透明度、問責制和公平性方面處於領先地位。[17]
諸如 IBM 的 AI Fairness 360 [18] 之類的工具提供了一個框架,用於檢測和減輕機器學習模型中的偏差,為即時監控解決方案奠定了基礎。該工具集的設計是 IBM 努力將流程引入人工智慧交付的一部分,並提供了一套全面的演算法、指標和資料集,重點關注準確性。AIF360 包含 70 多個公平性指標和 10 多個偏差緩解演算法。
AI Fairness 360 可用於各種行業和領域,例如金融、人力資源、醫療保健和刑事司法,在這些領域中,人工智慧決策系統可能對人們的生活產生重大影響。透過安裝這套工具,組織可以確保其人工智慧系統更加高效和準確,從而降低導致歧視的負面偏差風險。
利益相關者協作和公眾參與是解決人工智慧倫理中程式性偏差和公平性的重要步驟。這些努力證明了協作的重要性以及公眾行動的力量,以確保人工智慧系統以道德和公平的方式開發和部署。
跨多個學科的協作努力對於開發準確且可持續的人工智慧系統至關重要。來自技術、社會科學、倫理學和法律等各個領域的利益相關者參與了這些協作。目標是以一種綜合的方式開發人工智慧,在每個階段都納入倫理考量。這種學習方法有助於理解人工智慧假設的複雜性並制定全面的緩解策略。[19][20]
公眾參與在管理人工智慧技術方面至關重要。這包括透過通訊、公開論壇和參與式設計流程進行社群參與。這項工作將確保人工智慧技術的發展與公共價值和社會規範相一致。人工智慧系統將得到更好的理解和問責。可以使用諸如諮詢投票之類的方法來促進公眾參與,該方法將來自不同群體的人聚集在一起,討論並提供對人工智慧政策的意見。[19]
為了透過教育舉措和公眾意識活動有效地解決演算法偏差和公平問題,已經在各種組織和教育機構中探索和實施了多種方法。
以人工智慧倫理和合法性為重點的培訓課程可以塑造技術人員和決策者的知識和態度。例如,由麻省理工學院媒體實驗室[21] 為高中生開發的 AI + 倫理課程專案旨在提高人們對人工智慧技術的認識及其對社會的影響,包括演算法偏差問題。
像 AI for Humanity 這樣的組織正在利用流行文化來提高一些人對人工智慧對社會正義的影響的認識,並關注這些技術對黑人社群的影響。這包括立法努力,以確保人工智慧應用的透明度和問責制。[22]
像人工智慧和卡內基[23]委員會的平等倡議等網站將學者聚集在一起,討論和解決人工智慧中的偏差,例如性別偏差,不平等在演算法成本下依然存在。這些辯論不僅提高了認識,而且鼓勵了為政策和實踐提供資訊的調查研究。
- ↑ a b 魏茨曼,約瑟夫 (1976). 計算機的力量和人類理性:從判斷到計算. 舊金山:弗里曼. ISBN 978-0-7167-0464-5.
- ↑ "人工智慧的鮮為人知的歷史:演算法偏差誕生於 1980 年代 - IEEE Spectrum". spectrum.ieee.org. Retrieved 2024-04-21.
- ↑ 拉什,斯科特 (2007-05). "霸權之後的權力:文化研究的變異?". 理論、文化與社會. 24 (3): 55–78. doi:10.1177/0263276407075956. ISSN 0263-2764.
{{cite journal}}: Check date values in:|date=(help) - ↑ 加西亞,梅根 (2016-12-01). "機器中的種族主義". 世界政策雜誌. 33 (4): 111–117. doi:10.1215/07402775-3813015. ISSN 0740-2775.
- ↑ "AI 框架". 英特爾. Retrieved 2024-04-23.
- ↑ "美國的人工智慧:新興立法 - 州政府委員會". 2023-12-06. Retrieved 2024-04-23.
- ↑ "人工智慧權利法案藍圖 | OSTP". 白宮. Retrieved 2024-04-23.
- ↑ "預測付諸實踐:芝加哥預測性警務試點的準實驗評估 | 國家司法研究所". nij.ojp.gov. Retrieved 2024-04-22.
- ↑ 馬圖,傑夫·拉森,茱莉亞·安格溫,勞倫·基爾切納,蘇里亞. "我們如何分析 COMPAS 再犯演算法". ProPublica. Retrieved 2024-04-22.
- ↑ "Facebook 透過對其線上廣告平臺進行全面更改來解決民權案件 | ACLU". 美國公民自由聯盟. 2019-03-19. Retrieved 2024-04-22.
- ↑ 哈倫,穆罕默德; 沃伊奇茲克,瑪格達萊娜; 查布拉,安舒曼; 劉,鑫; 莫哈帕特拉,普拉桑特; 沙菲克,祖拜爾 (2023-12-12). "稽核 YouTube 的推薦系統以獲取意識形態上相容、極端和有問題的推薦". 美國國家科學院院刊. 120 (50). doi:10.1073/pnas.2213020120. ISSN 0027-8424. PMC PMC10723127. PMID 38051772.
{{cite journal}}: Check|pmc=value (help); Check|pmid=value (help)CS1 maint: PMC format (link) - ↑ 奧爾森,亞歷克斯 (2024-02-09). "人工智慧中的種族偏見:揭示其在刑事司法系統中的後果". IRIS 可持續發展. Retrieved 2024-04-22.
- ↑ Ferrara, Emilio (2023-12-26). "人工智慧中的公平與偏差:來源、影響和緩解策略的簡要調查". Sci. 6 (1): 3. doi:10.3390/sci6010003. ISSN 2413-4155.
- ↑ Osoba, Osonde A. (2019 年 3 月 25 日). "難道沒有人稽核過蘋果卡演算法嗎?". RAND: pp. 2. https://www.rand.org/pubs/commentary/2019/11/did-no-one-audit-the-apple-card-algorithm.html.
- ↑ "Clearview AI 因非法收集資料被第三次罰款 2000 萬歐元". BleepingComputer. Retrieved 2024-04-22.
- ↑ "歐洲人工智慧方法 | 塑造歐洲的數字未來". digital-strategy.ec.europa.eu. 2024-04-05. Retrieved 2024-04-22.
- ↑ Councils, Forbes. "人工智慧與公平指標:理解和消除偏差". councils.forbes.com. Retrieved 2024-04-22.
- ↑ Trusted-AI/AIF360, Trusted-AI, 2024-04-21, retrieved 2024-04-22
- ↑ a b "演算法偏差檢測和緩解:減少消費者傷害的最佳實踐和政策". Brookings. Retrieved 2024-04-22.
- ↑ "AI 中的利益相關者參與:超越“新增不同的利益相關者並攪拌”". ar5iv. Retrieved 2024-04-22.
- ↑ "專案概述 ‹ AI 審計:AI 倫理素養". MIT Media Lab. Retrieved 2024-04-22.
- ↑ Gupta, Damini; Krishnan, T. S. (2020-11-17). "演算法偏差:為什麼要在意?". 加州管理評論見解.
- ↑ "人工智慧與平等倡議 | AI 倫理 | 卡內基委員會". www.carnegiecouncil.org. Retrieved 2024-04-22.