跳轉到內容

專業/高階技術外部諮詢委員會的興衰

來自華夏公益教科書,開放世界開放書籍

導致建立高階技術外部諮詢委員會的因素

[編輯 | 編輯原始碼]

人工智慧中的偏差

[編輯 | 編輯原始碼]

人工智慧中的偏差是指人工智慧模型傾向於延續人類的偏差,導致不公平的決策。這種偏差有許多表現形式,包括互動偏差、潛在偏差和選擇偏差。互動偏差指的是從使用者與演算法互動中產生的偏差。[1] 潛在偏差指的是人工智慧演算法無意中產生的偏差,例如人工智慧將“醫生”與男性聯絡起來,因為在訓練中使用的庫存影像的元資料存在偏差。[1] 選擇偏差指的是訓練資料中某個群體過度代表而導致的偏差。[1] 人工智慧中存在許多偏差的例子,但比較知名的例子包括 COMPASPredPol亞馬遜有偏差的招聘工具 以及各種面部識別軟體。

谷歌對人工智慧偏差的關注

[編輯 | 編輯原始碼]

谷歌對人工智慧偏差的擔憂非常熟悉,他們在 2015 年就曾因其谷歌照片影像識別演算法將黑人的照片標記為“大猩猩”而受到批評。[2] 自此事件之後,谷歌公開宣佈偏差是他們對人工智慧最大的擔憂。2017 年,谷歌機器學習負責人約翰·吉安安德列亞表示:“真正的安全問題,如果你願意這樣稱呼它,是如果我們給這些系統提供有偏差的資料,它們就會產生偏差。”他強調透明度的重要性,即“透明地說明我們使用訓練資料,並尋找其中的隱藏偏差。”[3]” 這些言論為谷歌對人工智慧偏差的擔憂提供了背景,這些擔憂是 ATEAC 成立的重點。

內部壓力

[編輯 | 編輯原始碼]

Maven 專案

[編輯 | 編輯原始碼]

Maven 專案 是五角大樓的一個專案,旨在使用計算機視覺(機器學習的一種應用)對無人機拍攝的影片中的物體進行分類。該專案在許多谷歌員工中引發了爭議,他們擔心他們的工作會加劇軍事武器的殺傷力。雖然谷歌辯稱其工作是“無攻擊性的”,[4] 但他們參與該專案導致了 12 人辭職[5] 以及員工抗議。在一封由 3100 名谷歌員工簽署的信函中,員工們表示:“我們認為谷歌不應該參與戰爭業務。因此,我們要求取消 Maven 專案,並且谷歌起草、公佈並執行一項明確的政策,宣告谷歌及其承包商永遠不會製造戰爭技術。”[4]” 員工提出的要求對該公司釋出其人工智慧原則產生了明顯的影響,這些原則明確宣告其人工智慧不會用於武器製造。

蜻蜓專案

[編輯 | 編輯原始碼]

2018 年 8 月 1 日,Intercept 報道稱谷歌正在開發一個秘密專案,為中國政府提供該公司搜尋引擎的審查版本。該專案代號為“蜻蜓”,將與中國政府的審查制度保持一致;過濾遮蔽的網站,並將敏感的查詢列入黑名單,以便不顯示任何結果。[6] 公司內部許多人對這一訊息感到驚訝,因為谷歌 88000 名員工中只有數百人知道該專案。向 Intercept 提供資訊的舉報人表達了他的倫理擔憂:“我反對大型公司和政府合謀壓迫人民,我認為公開所做的事情符合公眾利益。”他還補充說,他擔心“在中國所做的事情將成為許多其他國家的模板。”[6] 針對這份報道,谷歌 CEO 桑達爾·皮查伊為該專案辯護,稱該專案處於“探索”階段。[7] 皮查伊的辯護並沒有起到緩解批評的作用,因為 1400 名員工向公司高管傳送了一封信,要求更多透明度。[8] 在這封信中,員工們表示:“目前,我們沒有做出關於我們的工作、專案和工作的倫理決策所需的必要資訊。”[8]” 他們還指出該公司最近實施的人工智慧原則的無效性,並要求“進行倫理審查,包括基層員工代表。”[8]

谷歌的人工智慧原則

[編輯 | 編輯原始碼]

2018 年 6 月 7 日,CEO 桑達爾·皮查伊宣佈了七項原則,以幫助指導公司未來的與人工智慧相關的努力。[9] 他承諾,這些原則與其說是“理論概念”,不如說是“將積極指導我們的研究和產品開發並影響我們商業決策的具體標準”。作為對他們之前與人工智慧相關的失誤的回應,這七項原則指出人工智慧應該

  1. 對社會有益。
  2. 避免造成或加劇不公平的偏差。
  3. 為安全而構建和測試。
  4. 對人負責。
  5. 融入隱私設計原則。
  6. 保持科學卓越的高標準。
  7. 使其可用於符合這些原則的用途。

此外,該公告特別譴責了人工智慧的某些用途,並承諾不會以這些方式“設計或部署人工智慧”。

  1. 可能造成或很可能造成整體傷害的技術。如果存在重大傷害風險,我們將僅在相信益處大大超過風險的情況下繼續進行,並將納入適當的安全約束。
  2. 武器或其他技術,其主要目的或實施是造成或直接促進對人員的傷害。
  3. 收集或使用資訊進行監控的技術違反了國際公認的規範。
  4. 其目的違反了國際法和人權廣泛接受的原則的技術。

委員會的形成和垮臺

[編輯 | 編輯原始碼]

谷歌宣佈成立外部諮詢委員會

[編輯 | 編輯原始碼]

2019 年 3 月 26 日,全球事務高階副總裁肯特·沃克宣佈了谷歌幫助指導公司 AI 決策和政策的新舉措:高階技術外部諮詢委員會(ATEAC)。[10]他表示,該委員會的目標是對之前 6 月宣佈的人工智慧原則進行補充,並“考慮谷歌在其人工智慧原則下出現的一些最複雜挑戰,例如面部識別和機器學習中的公平性,提供不同的觀點來為我們的工作提供資訊”。該委員會將在 2019 年舉行四次會議,並邀請了許多相關領域的專家,包括卡內基梅隆大學資訊科技與公共政策教授亞歷山德羅·阿奎斯蒂,香港科技大學計算機科學與工程教授戴可,以及牛津大學資訊哲學與倫理教授盧西亞諾·弗洛裡迪。

公眾反彈

[編輯 | 編輯原始碼]

凱·科爾·詹姆斯

[編輯 | 編輯原始碼]

公眾對任命到該委員會的一名成員立即發出了強烈抗議:凱·科爾·詹姆斯,保守派智庫傳統基金會的總裁。詹姆斯據稱在專業和個人方面都持反移民、反LGBTQ 和反環境的觀點。公眾開始呼籲谷歌為其將詹姆斯納入該委員會的決定辯護,谷歌沒有透明度或解釋就做出了這個決定。他們被指責透過將她包括在內來迎合政客,而不是尋求最合格的成員。[11]

亞歷山德羅·阿奎斯蒂的辭職

[編輯 | 編輯原始碼]

在該委員會宣佈的四天後,即 3 月 30 日,亞歷山德羅·阿奎斯蒂在 Twitter 上宣佈,他將拒絕加入該委員會的邀請。[12] 模糊地指出,他“不認為這是一個適合我參與這項重要工作的論壇”,可以合理地推測,自該委員會宣佈以來他改變了主意,這是對公眾對該委員會成員的爭議做出的回應。

反對跨性別恐懼症和仇恨的谷歌員工

[編輯 | 編輯原始碼]

公眾並不是唯一感到憤怒的人。在谷歌內部,許多員工公開反對這一選擇,譴責其僱主的行為。到 4 月 1 日,數千名谷歌員工和數十位學術界、民間社會和行業支持者簽署了一份請願書,呼籲谷歌將凱·科爾斯·詹姆斯從 ATEAC 中移除。[13] 請願書指出,透過任命詹姆斯,而不是像谷歌聲稱的那樣引入多樣性,她的加入“認可並提升了她的觀點”。他們指出,那些最邊緣化的人已經成為人工智慧技術最危險的人群,詹姆斯的任命進一步加劇了這種不公正。

委員會的解散

[編輯 | 編輯原始碼]

2019 年 4 月 4 日,該委員會成立僅 9 天,谷歌就宣佈解散該委員會,稱“很明顯,在當前的環境下,ATEAC 無法按我們想要的方式運作。[10]”儘管發生了這種突然的挫折,該公司還是保證它將繼續對其工作負責。

詹姆斯的言論

[編輯 | 編輯原始碼]

在該委員會解散後,詹姆斯在《華盛頓郵報》上發表了一篇專欄文章,公開譴責了請願者。[14] 她指責員工對她的指控不實。尤其是,她認為她反LGBTQ、反移民和“偏執狂”的指控是人格謀殺:毫無根據的指控,其目的只是將她的保守觀點從公眾話語中抹去。考慮到請願書本身引用了她自己的 Twitter[15] 帳戶[16] 上的這些說法,她這麼說很有意思。

詹姆斯和請願者的衝突源於對容忍悖論的不同立場。詹姆斯認為,不容忍任何一方都是錯誤的,而請願者則認為,不容忍不容忍可以幫助建立一個容忍的社會。然而,詹姆斯的立場有些虛偽,因為她公開持有的許多政策信仰都不容忍 LGBTQ 人士[15] 和移民。[16]

谷歌人工智慧倫理的未來

[編輯 | 編輯原始碼]

2019 年 6 月的一篇部落格文章[17] 部分概述了用於讓公司遵守其倫理規範的替代方法,這些方法包括關於負責任的人工智慧應用的內部教育,用於分析人工智慧模型的內部工具,審查流程以及與外部利益相關者的溝通。最後一個功能原本是 ATEAC 的職責範圍,但隨著它的解散,被諮詢的利益相關者現在完全沒有姓名,導致透明度更低。

高階技術審查委員會

[編輯 | 編輯原始碼]

同樣沒有說出來的是,谷歌內部另一個類似命名的委員會的性質:高階技術審查委員會。這個委員會,不像ATEAC,不是公開的,但已知成員都是高層主管。其中包括谷歌副總裁Jacquelline Fuller以及ATEAC公告的首席法律官和作者肯特·沃克。[18] 這個委員會代表了谷歌為維持道德行為而設定的審查流程的最高層級。[19]

然而,多名員工報告稱,該委員會的議程仍不清楚。這些員工在報告中要求匿名,以防遭到報復。[18] 這突出了明顯的利益衝突:如果人工智慧倫理與公司利潤髮生衝突,是否應該信任同一群批准了Maven和Dragonfly等專案的管理人員做出正確的決定?

透過誠信的視角可以很容易理解對詹姆斯任命的強烈反對。在這場倫理危機的開始,人工智慧原則代表了谷歌的一種新的規範立場。最重要的是,它們代表了公司的價值觀。詹姆斯顯然與這些價值觀相矛盾,例如透過強化對移民的不公正偏見。[16] 任命她不僅增加了“意見的多樣性”,而且還使她的信仰合法化並賦予其權力。無論她的信仰是否正確,任命她都背叛了谷歌的誠信,從而破壞了其員工的信任。

透明度

[編輯 | 編輯原始碼]

進一步破壞信任的是,在這場危機中缺乏透明度。沒有描述委員會是如何選出的,也沒有描述它將擁有的權力,以及評估其有效性的機制。如果沒有這些,委員會,以及公司,就無法對其員工負責——這是谷歌提出的關鍵目標之一。從那以後,谷歌的其他方法似乎更加透明,也更受青睞,將員工納入內部教育計劃,並讓他們負責審查系統的多個層級。然而,最高層的委員會,其神秘的性質和缺乏對員工的責任,可能會在未來引發類似的危機,如果他們推翻了員工對Maven或Dragonfly這樣有爭議問題的決定。

參考文獻

[編輯 | 編輯原始碼]
  1. a b c 谷歌解釋了人工智慧如何對女性和少數民族產生偏見 [1]
  2. 谷歌對意外演算法種族主義的解決方案:禁止大猩猩
  3. 忘記殺人機器人——偏見是真正的人工智慧危險
  4. a b “戰爭的生意”:谷歌員工抗議為五角大樓工作
  5. 谷歌員工辭職抗議五角大樓合同
  6. a b 洩露檔案顯示,谷歌計劃在中國推出審查後的搜尋引擎 [2]
  7. 員工對谷歌為中國開發審查後的搜尋引擎的強烈反對,解釋 [3]
  8. a b c 谷歌員工告訴老闆,中國的審查制度是“道德和倫理”危機 [4]
  9. 皮柴,桑達爾 (2018), 谷歌的人工智慧:我們的原則, 關鍵詞:谷歌
  10. a b 沃克,肯特 (2019), 外部諮詢委員會幫助推動人工智慧的負責任發展, 關鍵詞:谷歌
  11. 斯塔特,尼克 (2019), 谷歌成立外部諮詢委員會,以監控其不道德的人工智慧使用, The Verge
  12. 亞歷山德羅·阿奎斯蒂的推特
  13. 匿名 (2019), 谷歌反跨性別恐懼症和仇恨, Medium
  14. 詹姆斯,凱·科爾斯 (2019), 我想幫助谷歌使人工智慧更負責任,結果卻遭到了敵意對待。, 華盛頓郵報
  15. a b James, Kay Coles (2019), https://twitter.com/KayColesJames/status/1100488434500685824 {{citation}}: 缺少或為空的|title= (幫助)
  16. a b c James, Kay Coles (2019), https://twitter.com/KayColesJames/status/1108365238779498497 {{citation}}: 缺少或為空的|title= (幫助)
  17. Dean, Jeff; Walker, Kent (2019), 負責任的人工智慧:將我們的原則付諸實踐, Google
  18. a b Bergen, Mark; Brustein, Joshua (2019), 擁有實際權力的 Google 人工智慧倫理委員會仍在運作, Bloomberg
  19. Walker, Kent (2019), Google 人工智慧原則更新,六個月總結, Google
華夏公益教科書