Lentis/演算法性別偏見
演算法偏見 是任何旨在從大量資料中學習以對新資料進行預測的程式。示例包括面部識別、自動駕駛汽車和簡歷分析器。[1]
當演算法由於資料中編碼的偏見而產生“系統性不公平”的結果時,就會發生演算法偏見。[2] 性別偏見通常出現在男性主導的領域。醫療資料往往缺乏女性參與者,導致潛在的診斷和治療建議不準確。[3] 由於該領域男性比例失衡,計算機科學的招聘演算法傾向於偏向男性。[4] 這些演算法會自我強化。由於演算法的偏差導致的決定會創造資料,這些資料會為演算法的未來幾代強化偏差。
人工智慧訓練資料可能包含有偏見的人類決策,或反映歷史和社會不平等。這些人類偏見往往成為所有演算法偏見的基礎。這種偏見會導致不正確的決策。例如,麻省理工學院的研究人員表明,面部分析技術對少數民族和女性的錯誤率更高。這是由於訓練資料不具有代表性:大多數訓練影像都是白人男性。[5]
另一種形式的偏見來自故意編碼的偏見。自然語言處理模型“詞嵌入”用於處理文字。詞嵌入是一種識別給定文字塊中詞語的隱藏模式的機制,考慮語言統計、語法和語義資訊以及人類偏見。這種對人類偏見的故意考慮可以提高這些模型的準確性,因為人類寫作通常包括人類偏見,但它會在使用這些模型的應用程式中產生負面影響。[6]
2018 年,亞馬遜停止使用招聘演算法,因為發現該演算法偏向於選擇男性申請人。這源於 NLP 中的偏見;然而,這並非由於故意編碼的偏見。相反,模型訓練的大多數簡歷都來自男性,因為科技行業是男性主導的行業。[7] 這導致演算法偏愛男性通常使用的詞語。透過沒有確保資料中性別平等的代表性,亞馬遜建立了一個人工智慧,進一步強化了其領域中性別失衡。
消除人工智慧演算法中性別偏見的努力由許多不同的社會群體進行,每個群體都有自己的方法和努力。
谷歌、蘋果和 Facebook 等科技公司在最新的機器學習模型方面取得了大部分進展,這些模型隨後被開源供全世界使用。當這些模型存在偏見時,這種偏見會傳播到許多應用程式中。例如,谷歌的 Switch Transformer 和 T5 模型被其他企業用於 NLP 應用程式,被證明“經過廣泛過濾”以刪除黑人和西班牙裔作者,以及與同性戀、女同性戀和其他少數民族身份相關的材料。[8] 這影響了無數 NLP 應用程式,而應用程式的作者並不知情。活動人士認為,構建無偏見人工智慧的責任在於最大科技公司中的少數工程師,而不是更廣泛的公眾。公司經常公開承諾解決演算法偏見。[9] [10] 演算法偏見會對人工智慧效能產生負面影響,而這些公司認識到減輕這種影響的必要性。
女權主義資料宣言-否是一份宣言,致力於“資料女權主義”事業。這場運動旨在改變資料收集、使用和理解的方式,使其更符合現代女權主義所倡導的性別平等理想。[11] [12]
宣言-否由一系列要點組成,分為拒絕和承諾。拒絕包含對當前關於資料和演算法的既定想法的拒絕,以“我們拒絕”一詞為開頭。承諾然後以論文作者所接受的新標準的形式對該想法做出反駁,以“我們承諾”一詞為開頭。這種語言在宣言中創造了一種社群感,使作者能夠清楚地闡述他們對當前世界的理解以及他們對更美好世界的願景。這份宣言-否,雖然並非總是被明確使用或引用,但構成了許多現代對抗演算法中性別偏見的方法的基礎。
伯克利哈斯平等、性別和領導力中心為企業領導者編寫了一本詳細的指南,以減輕其公司內部的演算法偏見。[13] 這本指南包括對人工智慧演算法中偏見問題以及企業如何解決這些問題的概述和深入探討。這本指南的存在表明其作者相信,有效地減輕這個問題必須從上而下進行。然而,作者明白,基層組織者可以提供有效的變革激勵,即使這些組織者往往缺乏實際實施變革的權力。
為此,伯克利哈斯平等、性別和領導力中心維護著一個多年來不同公司使用的性別偏見演算法的清單。認識到使用有偏見演算法所帶來的負面報道,使用這份清單的目的是透過公開這些偏見來鼓勵糾正和避免偏見。[14]
科技公司和組織應確保收集資料和設計人工智慧演算法的研究人員和工程師瞭解對少數民族和弱勢群體的潛在偏見。一些公司似乎正在朝著這個方向採取措施。例如,谷歌已經發布了一套關於人工智慧使用的指南,適用於其內部和使用其人工智慧基礎設施的企業。[15]
及時研究使用人工智慧演算法的預期和意外後果至關重要,尤其是在當前的政府政策可能不足以識別、減輕和消除此類法律關係中微妙偏見的後果的情況下。僅僅透過技術手段解決演算法偏差問題將不會帶來理想的結果。世界社會思考了引入標準化和制定道德原則以建立公平使用人工智慧進行決策的框架。有必要制定專門的規則,為各行各業的演算法偏差設定限制。
- ↑ Siau, K. & Wang, W. (2020). 人工智慧(AI)倫理。資料庫管理雜誌,31(2),74-87 https://doi.org/10.4018/jdm.2020040105
- ↑ Akter, S., Dwivedi, Y. K., Biswas, K., Michael, K., Bandara, R. J. & Sajib, S. (2021). 解決人工智慧驅動的客戶管理中的演算法偏差。全球資訊管理雜誌,29(6),1-27。https://doi.org/10.4018/jgim.20211101.o
- ↑ Rustagi, G. S. & I., Rustagi, I. & Smith, G. (2021 年 3 月 31 日)。當好的演算法變得性別歧視時:為什麼以及如何促進人工智慧性別平等(SSIR)。斯坦福社會創新評論:為社會變革領導者提供資訊和啟發。https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity.
- ↑ Dastin, J. (2018 年 10 月 10 日)。亞馬遜放棄了對女性有偏見的秘密人工智慧招聘工具。路透社。https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.
- ↑ Mayinka, J., Presten , B. & Silberg, J. (2019 年 10 月 25 日)。我們如何解決人工智慧中的偏見?哈佛商業評論。https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai.
- ↑ Caliskan, A. (2021 年 5 月 10 日)。檢測和減輕自然語言處理中的偏差。布魯金斯學會。https://www.brookings.edu/research/detecting-and-mitigating-bias-in-natural-language-processing/
- ↑ Dastin, J. (2018 年 10 月 10 日)。亞馬遜放棄了對女性有偏見的秘密人工智慧招聘工具。路透社。https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G.
- ↑ Anderson, M. (2021 年 9 月 24 日)。少數族裔的聲音從谷歌自然語言處理模型中“過濾”出來。Unite.AI。https://www.unite.ai/minority-voices-filtered-out-of-google-natural-language-processing-models/
- ↑ 谷歌。(無日期)。我們的原則。谷歌人工智慧。https://ai.google/principles/
- ↑ 元宇宙。(2021 年 4 月 8 日)。用新的資料集揭示人工智慧中的公平性。元宇宙人工智慧。https://ai.facebook.com/blog/shedding-light-on-fairness-in-ai-with-a-new-data-set/.
- ↑ Cifor, M. & Garcia, P.(無日期)。女權主義資料宣言。宣言號。https://www.manifestno.com/.
- ↑ Cifor, M. & Garcia, P.(無日期)。女權主義資料宣言。宣言號的完整版本。https://www.manifestno.com/home.
- ↑ Smith, G. & Rushtagi, I. (2020 年 7 月)。減輕偏見 - 哈斯商學院。伯克利哈斯 UCB 手冊。https://haas.berkeley.edu/wp-content/uploads/UCB_Playbook_R10_V2_spreads2.pdf.
- ↑ 人工智慧中的偏差:示例追蹤器 https://docs.google.com/spreadsheets/d/1eyZZW7eZAfzlUMD8kSU30IPwshHS4ZBOyZXfEBiZum4/edit#gid=1838901553
- ↑ 負責任的人工智慧實踐。谷歌人工智慧。(2021 年 10 月)。https://ai.google/responsibilities/responsible-ai-practices