跳轉到內容

資訊科技與倫理/百年研究

來自華夏公益教科書,開放的書籍,為一個開放的世界

人工智慧百年研究

[編輯 | 編輯原始碼]

這份報告是計劃中的系列研究的第一份,這些研究將持續至少一百年。“常務委員會在2015年夏季為首屆研究小組確定了研究任務,並聘請德克薩斯大學奧斯汀分校的彼得·斯通教授擔任小組主席。這個由17名成員組成的研究小組,由來自學術界、企業實驗室和行業的AI專家,以及精通AI的法律、政治學、政策和經濟學領域的學者組成,於2015年秋季中期成立。”[1]

常務委員會廣泛討論瞭如何構建研究小組任務,以考慮“AI的最新進展以及對就業、環境、交通、公共安全、醫療保健、社群參與和政府的潛在社會影響”。[1]該委員會考慮了多種方式來聚焦研究,包括調查子領域及其現狀,考察機器學習或自然語言處理等特定技術,以及研究醫療保健或交通等特定應用領域。

該委員會的成立是為了監控人工智慧的當前和未來發展。我們每天都在遇到新的AI應用,重要的是要理解AI將無處不在,而且以這種速度,它幾乎是不可避免的。我們已經開始了一段旅程,為我們創造了與這些技術建立信任和理解的方式。世界各地的計算機科學家每天都在努力創造更智慧的AI。創新是偉大的,但“政策和流程應該解決倫理、隱私、安全問題,並應努力確保AI的益處能夠廣泛而公平地傳播。”

百年研究承認“強人工智慧”的潛力,但目前還沒有監管委員會來監督人工智慧的最新進展。17名研究小組成員代表了不同的專業和地域、性別和職業階段。AI在各個領域的未來發展似乎非常有希望。人工智慧無處不在。它存在於我們的手機和家用裝置中,它允許Facebook和亞馬遜將廣告和產品定位到特定使用者。這種人工智慧被稱為基於任務的人工智慧。這些AI裝置背後的軟體允許裝置執行任務。學習完善這些任務是使AI“智慧”的原因。百年研究委員會在某種程度上是我們的第一道防禦,以抵禦“強人工智慧”。“強人工智慧”可能是造成經濟破壞的原因,最糟糕的是,它會摧毀人類文明。不僅如此,常務委員會還預計這項研究將具有更廣泛的全球意義,因此,在未來,它計劃將該專案擴充套件到國際範圍內。

儘管人工智慧已經滲透到我們執行的大多數服務和裝置中,但瞭解機器學習的危險至關重要。無論我們是否喜歡,它都影響著我們每個人。誰來控制這些資訊,同時決定對人工智慧發展的倫理和道德問題,最終將阻止我們自己滅亡。人工智慧百年研究於2014年啟動。該研究的目的是分析“人工智慧對人們、他們的社群和社會的影響”。[1]。AI的開發、研究和系統設計都是為了確保這些系統只對個人和社會有利,並確保其安全性。雖然我們距離真正的類人智慧還有很長的路要走——我們可以將其定義為理解、推理、做出決定、提供複雜響應並像人類一樣邏輯行動的技術——但機器學習就在眼前。它是基於機器可以從資料中學習的想法的先進分析的擴充套件。

這項研究對典型北美城市的關注是刻意的,旨在突出顯示影響居住在這些城市的數百萬人的日常生活的一些具體變化。研究小組進一步將調查範圍縮小到八個領域,AI已經或預計將在這些領域產生最大的影響:交通、醫療保健、教育、低資源社群、公共安全與安保、就業與工作場所、家庭/服務機器人和娛樂。

該報告旨在滿足四個目標受眾。

  1. 公眾:旨在提供一種易於理解、科學和技術上準確的描述,以展示AI的現狀及其潛力。
  2. 行業:該報告描述了相關技術以及法律和倫理挑戰,並可能有助於指導資源分配。
  3. 針對地方、國家和國際政府,幫助他們更好地規劃AI治理。
  4. AI研究人員以及他們的機構和資助者,以確定優先事項並考慮AI研究及其應用所帶來的倫理和法律問題。

有效性

[編輯 | 編輯原始碼]

AI的有效性如何?“AI的有效性僅與其訓練資料一樣有效。在Tay的情況下,機器智慧準確地反映了它所訓練的人們的偏見。”[2]AI只是一個黑盒子,無論什麼資料輸入,都會輸出一個答案,而不會對決策進行任何解釋。這是一個巨大的問題,因為作為人類的法律,我們希望瞭解決策是如何做出的。目前,深度學習、人工神經網路和強化學習領域的研究都在努力追溯AI知道它知道的東西的邏輯。科學家們試圖訓練AI進行新的關聯,就像人類的大腦一樣。

人工智慧現在和未來

[編輯 | 編輯原始碼]

我們如何衡量AI應用的成功?衡量標準是它們為人類生活創造的價值。有人說,“展望未來,人們使用和適應AI應用的難易程度在很大程度上也將決定它們的成功”。[1]。另一個重要的考慮因素是,接管某些任務的AI系統將如何影響人們的一致性和能力。“隨著機器在某些任務上表現出超人的效能,人們執行這些任務的能力可能會衰退。”[1]。現在,在課堂上引入計算器已經降低了孩子們進行基本算術運算的能力。儘管如此,人類和AI系統還是具有互補的能力。人們可以執行機器無法執行的任務,例如複雜推理和創意表達。

此外,人工智慧應用及其依賴的資料可能反映出其設計者和使用者的偏見,這些設計者和使用者指定了資料來源。這有可能加劇現有的社會偏見,並使人工智慧的益處在社會不同群體之間分配不均。人們普遍擔心人工智慧驅動的監控會侵犯隱私,尤其是在普遍使用儀器的城市。“監控”指的是參與者使用行動式個人裝置記錄活動,這種現象也正在增加。由於對偏見和隱私的看法基於個人和社會的倫理和價值判斷,因此關於如何解決這些問題的辯論可能會加劇,而且難以快速解決。[1]

3 項一般性政策建議

[編輯 | 編輯原始碼]
  1. 確定一條在所有政府層面積累人工智慧技術專長的路徑。有效治理需要更多能夠理解並分析人工智慧技術、程式目標和總體社會價值觀之間相互作用的專家。
  2. 消除對人工智慧系統公平性、安全性、隱私和社會影響的研究的感知和實際障礙。
  3. 增加對人工智慧社會影響跨學科研究的公共和私人資金。

研究小組

[編輯 | 編輯原始碼]
  • Peter Stone,德克薩斯大學奧斯汀分校,主席
  • Rodney Brooks,Rethink Robotics
  • Erik Brynjolfsson,麻省理工學院
  • Ryan Calo,華盛頓大學
  • Oren Etzioni,艾倫人工智慧研究所
  • Greg Hager,約翰霍普金斯大學
  • Julia Hirschberg,哥倫比亞大學
  • Shivaram Kalyanakrishnan,印度理工學院孟買分校
  • Ece Kamar,微軟研究院
  • Sarit Kraus,巴伊蘭大學
  • Kevin Leyton-Brown,不列顛哥倫比亞大學
  • David Parkes,哈佛大學
  • William Press,德克薩斯大學奧斯汀分校
  • AnnaLee (Anno) Saxenian,加州大學伯克利分校
  • Julie Shah,麻省理工學院
  • Milind Tambe,南加州大學
  • Astro Teller,X

參考文獻

[編輯 | 編輯原始碼]

[3]

  1. a b c d e f https://ai100.stanford.edu/2016-report
  2. https://www.fastcompany.com/40536485/now-is-the-time-to-act-to-stop-bias-in-ai
  3. https://www.ebsco.com/apps/landing-page/assets/POVRC_Intelligent_Machines_vs_Human_Intelligence.pdf.
華夏公益教科書