跳轉到內容

2050 年的工程教育 / 讓人類負責掌控人工智慧

來自華夏公益教科書,開放的書籍,開放的世界

人工智慧 (AI) 在 21 世紀的快速興起帶來了重大的倫理挑戰,特別是在其發展和社會影響方面。本章借鑑人工智慧專家傑弗裡·辛頓和蒂姆尼特·蓋布魯的觀點,重點介紹了這些問題,包括生存風險、編碼偏差以及人工智慧開發中的勞動剝削。它倡導改革工程課程,重點培養未來工程師應對 2050 年這些挑戰所需的技能和倫理,確保人工智慧發展與包容性和社會責任相一致。

人工智慧的未來風險

[編輯 | 編輯原始碼]

辛頓對人工智慧未來的預測和擔憂

傑弗裡·辛頓,常被稱為“人工智慧教父”,對人工智慧發展的軌跡表達了擔憂。他最近在 2023 年表示,人工智慧可能在短短五年內超越人類的效能,這修正了他早先預測的二十到三十年。[1] 他的警告反映了人工智慧系統必須與人類價值觀保持一致,並被設計為增強人類而不是取代人類的工具。儘管如此,辛頓並沒有主張停止人工智慧研究,他認為全球研究工作將繼續進行,無論如何。[1] 他的擔憂包括虛假資訊的傳播,以及工作自動化的可能性,例如助理和律師助理,以及工作流離失所帶來的更廣泛的社會影響。 [2][3]

蓋布魯對人工智慧倫理的批評

蒂姆尼特·蓋布魯,谷歌人工智慧倫理團隊的前任聯合負責人,提出了不同的但同樣重要的觀點。她在批評大型語言模型 (LLM) 後被谷歌解僱,這突顯了人工智慧開發中利潤和安全之間的緊張關係。蓋布魯強調了這些模型如何以追求利潤為目的,往往無法解決固有的偏差。 [4] 偏差資料訓練偏差的人工智慧,人工智慧中人類偏差的反映突出了 2050 年工程課程需要關注全面倫理培訓、批判性思維和偏差緩解策略的重要性。

人工智慧工作者的勞動剝削

人工智慧開發中的勞動剝削突出了人工智慧快速增長帶來的意想不到的挑戰。在菲律賓,Remowork 因剝削負責為人工智慧資料集分類影像的工人而受到批評,這些工人的工作條件通常很差,工資低,工資延遲,並遭到撤銷。 [5] 同樣,肯亞的 Sama 也吸引工人參與識別露骨的圖形內容,以訓練 ChatGPT 等模型識別不適當的材料。 [6] 這些工人,有些人每小時的工資低至 1 美元,忍受著令人不安的內容帶來的心理健康影響。 [6] 這類剝削突出了在弱勢群體勞動的基礎上構建先進技術的倫理問題,加劇了不平等的迴圈。

人工智慧偏差與倫理考量

[編輯 | 編輯原始碼]

預計到 2050 年,人工智慧將更普遍地融入日常生活,並將變得更加強大,然而,這也有可能導致演算法決策變得更加偏頗,因為它們會向用戶提供多年積累的大量資訊。到那時需要重點關注的一個問題是,演算法是否在強化偏差而不是幫助消除偏差。

什麼是人工智慧偏差?

偏差可能來自用於訓練的資料、演算法本身或開發過程中做出的設計決策。 [7] 人工智慧偏差的重要案例研究包括 1988 年的英國醫學院歧視事件,其中一個計算機程式在審查申請時對女性和非歐洲裔申請者存在偏見。2018 年,類似的事件發生在亞馬遜的計算機模型對女性存在偏見,因為大多數簡歷來自男性。 [8] 另一個例子是 ProPublica 新聞網站發現,刑事司法演算法稱非裔美國被告為“高風險”的機率是白人被告的兩倍。 [9] 很明顯,人工智慧偏差會導致使用者和公眾出現錯誤資訊和不平等的機會,那麼有沒有辦法在工程師及其專業責任的幫助下完全消除它?

新的課程

在人工智慧開發背後的是那些致力於建立這些演算法的專業人士。為了控制人工智慧,完全消除偏差的任務是不切實際的,相反,人們建議未來需要對工程師進行培訓,讓他們能夠識別資料中的這些偏差。工程師需要了解其專業責任,確保人工智慧技術符合倫理標準和社會價值觀。為了實現這種思維方式,我們預計人工智慧偏差識別將在課程中得到解決和整合。遵循傑弗裡·辛頓的原則,將建立一些課程或選修課,幫助工程專業的學生處理人工智慧開發中很可能出現的複雜倫理困境。需要解決的主要問題包括使用者控制和隱私以及人工智慧系統在多樣化環境中的透明度。工程師將學習在設計人工智慧時如何考慮使用者,讓使用者能夠控制系統,而不是系統控制使用者。  尊重使用者隱私也很重要,因為個人資訊必須以負責任的方式進行處理,資料洩露的可能性要低,並且要遵守既定的隱私法規。最後,確保人工智慧系統具有透明度和可解釋性有助於建立信任,並讓使用者瞭解決策是如何做出的。例如,這可能表現在系統顯示可能存在較高偏差風險的資訊的警告標誌,讓使用者瞭解如何在生活中更好地使用人工智慧,同時牢記所呈現的資訊和觀點存在缺陷。為了解決這些問題,特別是實踐練習,例如尋找創新解決方案來幫助減少人工智慧中的偏差,將幫助學生在面對現實世界場景時做出負責任的決策。這可以透過學習如何過濾可能存在高度偏差的資料來源來實現。此外,將為學生提供更多機會參加由嘉賓演講者主辦的研討會。演講者可能是該領域的教授,也可能是來自世界各地的工程師,他們在研討會上討論當時全球的人工智慧標準。

機遇與挑戰

隨著人工智慧越來越多地滲透到我們的日常生活中,它有可能由於使用的資料而強化人類思維和行為中的偏差。然而,完全消除偏差是不切實際的,因此,預測未來將提供整合多學科課程和選修課來改變思維方式並鼓勵工程師更加適應性的課程。重要的是,人工智慧系統的設計者——人類——要謹記辛頓的警告,要意識到並反思人工智慧的偏差和倫理標準,因為這對創造一個未來至關重要,在這個未來,人工智慧技術能夠積極地為社會做出貢獻,從而避免人類盲目依賴這些強大但有缺陷的系統。

工程學校的人工智慧法律

[編輯 | 編輯原始碼]

如前所述,我們的願景是看到工程教育採取必要的步驟,教育計算機科學專業的學生如何使人工智慧與包容性和社會責任保持一致。另一種實現這一目標的方法是為工程專業的本科生開設預備法律課程。

當前的人工智慧法

目前,圍繞人工智慧的法律處於過渡階段,尚未完全生效。我們預計,到 2050 年,隨著人工智慧在日常生活中越來越普遍,將出現許多人工智慧法律。目前,美國已有 15 個州頒佈了關於人工智慧的立法。《sup id="cite_ref-10" class="reference">[10] 這些州的法律各不相同。一些州立法機構側重於收集資料和制定政策,而另一些則進一步明確人工智慧在法律上不具備人格資格。《sup id="cite_ref-11" class="reference">[11] 雖然現行立法稀少且支離破碎,但在 2022 年,白宮科學技術政策辦公室釋出了《人工智慧權利法案藍圖》,這表明在未來幾年內,將制定全國性的關於人工智慧的政策。《sup id="cite_ref-12" class="reference">[12]

人工智慧訴訟

對於任何政策或法律,最終都會有人違反它們。我們預測,在人工智慧方面,這種情況將保持一致,從而催生出一個新的領域——人工智慧訴訟。例如,可能會出現因人工智慧造成的有害偏見、人工智慧軟體剽竊、如果有人按照人工智慧指令行事而產生的責任糾紛等案件。計算機科學專業的學生將是人工智慧律師的理想人選,因為他們可以理解與人工智慧法律案件相關的軟體背景,並能夠向陪審團或法官提供相關背景資訊。這類似於專利法,專利法側重於處理專利案件和撰寫專利申請,目前要求專利律師至少擁有一個技術學位。這是因為技術背景的人員能夠更好地理解技術術語和模型,從而讓他們掌握專利法案件所圍繞的發明原理。人工智慧法也是如此。在工程專業的本科生中引入預備法律課程,將使更多學生了解我們預測的這一新職業道路。工程學院可以開設一些課程,從法律與工程的交叉領域開始,並開設更高水平的課程,教授學生法律基礎知識,為他們將來可能上法學院並參加後續考試做好準備。我們預測,將出現一個類似於專利律師資格考試的人工智慧法律資格考試。有了人工智慧律師,人工智慧的未來將能夠透過法律審判,以確保創造者承擔責任。

人工智慧認證

此外,計算機科學專業的學生還應該瞭解未來的法規及其目的。在我們對 2050 年的設想中,專業建立人工智慧軟體的人員需要在特定司法轄區獲得認證才能建立人工智慧。這種模式將結合當前的軟體道德規範(目前不包含人工智慧道德規範)和土木工程師必須參加的專業工程師資格考試(FE)。這些認證將確保建立人工智慧系統的專業人員能夠對了解人工智慧法規負責,因為他們已經獲得了認證,並在認證考試中接受了人工智慧法規和技術技能的測試。目前,這一想法面臨的一個挑戰是如何確定一個人應該在哪個司法轄區獲得專業建立人工智慧的認證,因為一個人工智慧軟體可以在其建立的州甚至國家之外使用。此外,人們必須付費參加專業工程師資格考試,因此我們可以假設類似的考試也需要付費。這可能會給獲得認證的人員設定障礙。

結論

[edit | edit source]

這些問題導致我們預測到 2050 年工程教育將發生重大轉變。這種新方法將優先考慮道德基礎、偏見預防、以人為本的人工智慧設計、跨學科合作和持續學習。透過為未來的工程師配備應對這些挑戰的技能和道德框架,2050 年的願景將是一個人工智慧成為積極變革力量,並且以尊重人類尊嚴和道德責任的方式發展的人工智慧時代。

參考文獻

[edit | edit source]
  1. a b Allyn, Bobby (2023-05-28). "'The godfather of AI' sounds alarm about potential dangers of AI". NPR. Retrieved 2023-12-05.{{cite web}}: CS1 maint: url-status (link)
  2. ""Godfather of AI" Resigns From Role At Google, Expresses Worries About Artificial Intelligence". Hypebeast. 2023-05-01. Retrieved 2023-12-08.
  3. Taylor, Josh; Hern, Alex (2023-05-02). "‘Godfather of AI’ Geoffrey Hinton quits Google and warns over dangers of misinformation" (in en-GB). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/02/geoffrey-hinton-godfather-of-ai-quits-google-warns-dangers-of-machine-learning. 
  4. "Why Timnit Gebru Isn't Waiting for Big Tech to Fix AI's Problems". Time. 2022-01-18. Retrieved 2023-12-08.
  5. "MSN". www.msn.com. Retrieved 2023-12-08.
  6. a b "Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer". Time. 2023-01-18. Retrieved 2023-12-08.
  7. "AI Bias - What Is It and How to Avoid It?". levity.ai. Retrieved 2023-12-08.
  8. Dastin, Jeffrey (2018 年 10 月 10 日). "洞察 - 亞馬遜放棄了顯示對女性有偏見的秘密 AI 招聘工具". 路透社. 檢索於 2023 年 12 月 8 日. {{cite web}}: 檢查日期值:|access-date= (幫助)CS1 維修:url-status (連結)
  9. "人工智慧的鮮為人知的歷史:演算法偏差誕生於 1980 年代 - IEEE 光譜". spectrum.ieee.org. 檢索於 2023 年 12 月 8 日.
  10. "2023 年人工智慧立法". www.ncsl.org. 檢索於 2023 年 12 月 8 日.
  11. "2023 年人工智慧立法". www.ncsl.org. 檢索於 2023 年 12 月 8 日.
  12. "人工智慧權利法案藍圖 | OSTP". 白宮. 檢索於 2023 年 12 月 8 日.
華夏公益教科書