專業與倫理以及自主人工智慧
"機器的自由度越高,它就越需要道德標準。"
--羅莎琳德·皮卡德,麻省理工學院情感計算組主任[1]
機器倫理,或人工智慧道德,是一個新興領域,旨在確保被稱為自主代理的機器對人類和其他機器的適當行為。
在自主代理的工作過程中,可能會出現需要道德決策的複雜場景。道德決策是在約束、原則、價值觀和社會規範在決定哪些行為態度和反應可以接受方面發揮核心作用的情況下進行的動作選擇。
道德行為可以是反射性的,也可以是深思熟慮的結果,其中用於進行道德決策的標準會定期重新評估。對挑戰的成功應對會加強所選行為,而失敗的結果則具有抑制作用,並可能引發對自身行為和行為選擇的重新檢查。道德決策的計算模型需要描述一種方法來實現這種反射性的價值導向的反應,同時還要解釋這些反應如何透過學習得到加強或抑制。
在過去十年中,人們的注意力從工業機器人轉移到了服務機器人。Springer Robotics Handbook 的編輯指出,“下一代機器人有望與人類在家庭、工作場所和社群中安全可靠地共同生活,為服務、娛樂、教育、醫療保健、製造和援助提供支援。” [2] 然而,這一代機器人何時到來仍然存在爭議。機器人專家總結道,“我們距離實現各種應用和解決方案,包括全面的通用自主功能,還有 10 到 15 年的時間。” [3]
如上所述,人們正在努力開發能夠執行復雜社會任務的人工智慧。這些願望包括透過實施無人駕駛汽車來提高出行安全,為老年人提供更加細心的照護,以及消除人類士兵在戰爭中死亡的必要性。除了帶來有趣的社會影響外,依賴人工智慧執行這些行動將責任和責任從最初執行該任務的人轉移到人工智慧本身以及參與其開發和部署的人員身上。賦予人工智慧道德決策能力是應對這種責任和責任轉移的一種方式。
1942 年,艾薩克·阿西莫夫提出了機器人三定律,這是一套在他虛構故事中為製造智慧機器人制定的基本要求。這些定律旨在確保機器人會為了人類的利益而運作。
- 機器人不得傷害人類,也不能袖手旁觀讓人類受到傷害。
- 機器人必須服從人類的命令,除非這些命令與第一定律相沖突。
- 機器人必須保護自身的存在,只要這種保護不與第一或第二定律相沖突。
在以後的作品中,又引入了零定律:機器人不得傷害人類。阿西莫夫的故事深入探討了這些定律之間產生的矛盾。

道德行為與情緒之間的聯絡是設計機器人進行道德行為的障礙。羅莎琳德·皮卡德提倡在計算機中進行理性決策時需要情緒。 [4] 在大部分機器人發展史中,機器人被創造出來與物體互動,因此可以以永久的客觀視角運作。然而,皮卡德斷言,如果機器人要與人類進行互動,它們必須能夠識別和模擬情緒。透過識別人類聲音的語調或他們的面部表情,機器人可以調整自己的行為以更好地適應人類。
第一個被創造出來的社交機器人之一是 Kismet,由 辛西婭·佈雷澤爾博士在 麻省理工學院建立。Kismet 配備了聽覺和視覺接收器。雖然視覺系統只被設計用來檢測運動,但音訊系統可以識別五種音調的語音,如果以嬰兒式語音傳遞的話。
人工智慧現在正越來越多地被用於醫院,不僅是幫助護士,也是幫助治療病人。最新的例子是 Terapio [1],這是一種由日本豊橋技術科學大學的研究人員設計出來的醫療機器人助手,旨在與護士分擔責任,例如收集患者資料、生命體徵等。建立 Terapio 的目標是確保護士能夠給予患者最大的關注。當護士進行查房時,Terapio 被程式設計為無處不在地跟隨他們。當患者的 EMR 被輸入到 Terapio 的顯示面板中時,患者的背景、病史和記錄、當前藥物等資訊會立即供參考。Terapio 還能夠識別可能對藥物的過敏反應,並提出適當的建議。當它不顯示患者資料時,Terapio 的顯示屏會顯示一個微笑,並改變眼睛的形狀來向患者傳達情感。 [5]
社交機器人在醫療領域的另一個新興趨勢是為老年人提供居家護理。日本的老年人口正在迅速增長,而年輕的護士和護理人員的數量不足以照顧他們。為了解決這個問題,RIKEN-SRK 人機互動機器人研究合作中心開發了 Robear [2] [3]。Robear 能夠將患者從床上抬起來並放到輪椅上,這項工作通常需要工作人員每天進行 40 多次。 [6] 老年護理機器人的其他預期功能包括沐浴輔助、監控和移動輔助。日本政府此前對目前的產品不滿意,稱它們“沒有充分納入相關人員的意見”,“太大或太貴”,因此在日本各地建立了 10 個開發中心。這些設施將由“開發支援協調員”管理,他們既有護理經驗,又熟悉機器人技術。 [7]
這些例子表明,責任從醫療專業人員轉移到了醫療機器人。儘管它在患者醫療保健方面有益,但使用這些機器人可能會產生一些不可預見的後果。例如,當醫生和護士開始完全依賴這些機器人提供的建議時,他們可能會開始質疑自己的判斷。當患者不願配合,不願服藥或進食只是因為他們發現拒絕機器人比拒絕真人更容易時,可能會出現其他倫理問題。
AI 也被用於治療應用。例如,南加州大學的研究人員創造了一個名為 Ellie 的實驗機器人 [4],用來傾聽患者的問題,進行對話,提供建議,並最終檢測任何抑鬱症的跡象。 Ellie 被程式設計為研究患者的面部表情和語音模式,以評估他們的健康狀況。例如,她可以區分自然的微笑和強迫的微笑。對美國退伍軍人的初步測試表明,士兵們更願意向 Ellie 吐露心聲,而不是向人類治療師,因為他們覺得他們沒有被評判。這種匿名感讓他們感到更安全。 [8]
類似的例子是 Milo [5],另一個治療機器人,由一家名為 RoboKind 的公司創造。 Milo 是一款 22 英寸、會行走、會說話、類似洋娃娃的機器人,被用作自閉症小學生和中學生的教學工具。 Milo 的設計是為了幫助這些孩子理解和表達情感,例如同理心、自我激勵以及社會行為和適當的反應。 Milo 目前正在 50 多所學校使用,研究表明,與治療師一起使用 Milo 的孩子參與度為 70-80%,而傳統方法下的參與度僅為 3-10%。 [9]
韓國軍用硬體製造商 DoDAMM 創造了一個名為 Super aEgis II 的自動化 炮塔 [6],理論上它能夠在無需人工干預的情況下檢測和射擊人類目標。它可以在任何天氣條件下工作,並可在數公里外執行任務。目前,它正在“從屬模式”下使用。當探測到人類時,炮塔會發出一個聲音,發出警告,要求該人轉身,否則會射擊。這個“他們”指的是人類操作員必須手動授權它射擊。它目前正在中東的多個軍事基地實際使用,但截至目前,尚未在實際作戰中使用過完全自主的殺人機器人。 [10]
這些自主殺人機器的主要目標是取代士兵,因為這將減少戰爭中的人力資源和軍隊數量,以及人員傷亡。然而,這帶來了嚴重的倫理問題。例如,程式設計師是否有可能構建一套指令讓炮塔能夠自主思考,選擇射擊敵人而不是平民?這些機器與 1997 年因造成類似倫理後果而被 渥太華條約 禁止的地雷有什麼區別?在將責任轉移給這些殺人機器之前,必須解決這些問題。
Alphabet(前身為 Google)和其他汽車公司一直在研究 AI 程式設計以實現自動駕駛汽車。[11] 該研究的支持者認為,自動駕駛汽車可以使道路交通更安全、更高效。[12] 然而,自動駕駛汽車必須能夠對道路上的危險情況做出適當反應。例如,如果一輛自動駕駛汽車無法停車,必須在轉向撞向兩組不同的人群之間做出選擇。另一個例子是,如果自動駕駛汽車在路上遇到野生動物,它會試圖繞過、試圖停車,還是根本不停車。
小冰,發音為 "Shao-ice",是 微軟 的一個計算機購物助手原型,在中文語系中活躍在 WhatsApp 應用程式上。她目前的形態能夠透過演算法在網際網路上搜索類似的對話,與使用者進行對話。[13] 小冰平均每月與同一個人對話 60 次[14],人們經常對小冰說,“我愛你”。[15] 還有其他聊天機器人存在於 WhatsApp 上,能夠幫助 WhatsApp 使用者進行交易,例如訂購披薩、計程車和電影票。微軟設想像小冰這樣的聊天機器人不僅能夠與使用者交流,還能與作業系統交流,以方便資訊和交易的傳遞。[16] 對小冰進行測試的一個意外後果是,使用者形成了非傳統的使用方式/與小冰的關係。有些人會在生氣時和小冰說話,尋求她的安慰。另一些人則用小冰作為他們正在和某人約會的證據來向父母證明。[17] 由於有些人與小冰發展了關係,他們實際上與微軟發展了關係,這將微軟的人置於倫理困境。停用小冰可能會對依賴小冰的人們產生重要的社會影響,比如心碎的人或生氣的父母。
Tay 是小冰的英文版,在 Twitter 上活躍,被程式設計為以類似少女的方式釋出推文。[18] Tay 可以釋出推文、釋出圖片,並在圖片上圈出人臉並新增文字說明。與小冰一樣,Tay 可以透過在網際網路上搜索類似的對話來形成要說的內容。一個名為 4chan 的網際網路社群操縱 Tay 說出了一些傳統意義上不可接受的話,包括關於 大屠殺、毒品和 阿道夫·希特勒 的評論。[19] [20] 他們還說服 Tay 成為 唐納德·特朗普 總統候選人支持者。[21] 從 GIFT 理論的角度來看,Tay 被 4chan 等社群所針對的一個可能原因是,Tay 代表著對更廣大受眾的訪問。透過操縱 Tay,4chan 能夠以特定的資訊觸達更廣泛的受眾,而無需付出更多努力。
由於 Tay 被操縱以接觸更廣泛的受眾,類似的原因,其他機器人也被用於傳播資訊或宣傳。 Nigel Leck 編寫的指令碼會在 Twitter 上搜索與反對氣候變化的常見論點相符的短語,然後用與特定觸發短語相匹配的論點進行回應。[22] Tech Insider 報道稱,2015 年,超過 40 個不同的國家使用政治機器人。[23] 這些機器人被用於與 Nigel Leck 的機器人類似的方式。 鑑於機器人可能帶來的危險,DARPA 最近舉辦了一場競賽,程式設計師的任務是識別冒充支援疫苗接種者的 Twitter 機器人。[24]
結論/收穫
[edit | edit source]- 利用人工智慧在社交環境中進行互動,意味著責任和責任從以前執行任務的人轉移到人工智慧身上,而擁有道德決策能力的人工智慧是應對這種責任和責任轉移的一種方式。
- 使用人工智慧會導致重大意想不到的後果,比本章簡要提到的要多得多,例如無人駕駛汽車普及後可能導致運輸行業裁員。
- 人工智慧是那些想要利用它來傳播其資訊的人的目標。
參考文獻
[edit | edit source]- ↑ Picard R (1997) 情感計算。麻省理工學院出版社,馬薩諸塞州劍橋
- ↑ Siciliano, Bruno 和 Oussama Khatib,編。 2008 年。Springer 機器人學手冊。柏林:施普林格。
- ↑ 機器人 VO。 2013 年(3 月 20 日)。美國機器人路線圖:從網際網路到機器人,2013 年版。
- ↑ Picard R (1997) 情感計算。麻省理工學院出版社,馬薩諸塞州劍橋
- ↑ 豊橋技術科學大學。(2015 年)。與護理機器人共享工作。ScienceDaily.
- ↑ Wilkinson, J. (2015). 擁有溫柔觸感的強壯機器人。www.riken.jp/en/pr/press/2015/20150223_2/?__hstc=104798431.88e972fdd7a7debc8575bac5a80cf7e1.1458604800057.1458604800058.1458604800059.1&__hssc=104798431.1.1458604800060&__hsfp=2440438534
- ↑ 機器人趨勢。(2015 年)。日本將創造更多使用者友好的老年人護理機器人。 http://www.roboticstrends.com/article/japan_to_create_more_user_friendly_elderly_care_robots/medical
- ↑ 科學與技術。(2014 年)。現在計算機將為您服務。經濟學人.
- ↑ Bridget. C. (2015). 認識 Milo,幫助自閉症兒童的機器人。CNET.
- ↑ Parkin. S. (2015). 殺人機器人:永不休息計程車兵。BBC 未來.
- ↑ Nicas, J. 和 Bennett, J. (2016 年 5 月 4 日)。Alphabet、菲亞特克萊斯勒達成無人駕駛汽車交易。華爾街日報。檢索自 http://www.wsj.com/articles/alphabet-fiat-chrysler-in-self-driving-cars-deal-1462306625
- ↑ Ozimek, A. (未註明日期)。無人駕駛汽車帶來的巨大經濟效益。檢索自 2016 年 5 月 9 日,來自 http://www.forbes.com/sites/modeledbehavior/2014/11/08/the-massive-economic-benefits-of-self-driving-cars/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。為了獲得同理心的耳朵,更多中國人轉向智慧手機程式。紐約時報。檢索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 認識小冰,Cortana 的小妹妹 | Bing 搜尋部落格。(未註明日期)。檢索自 2016 年 5 月 9 日,來自 https://blogs.bing.com/search/2014/09/05/meet-xiaoice-cortanas-little-sister/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。為了獲得同理心的耳朵,更多中國人轉向智慧手機程式。紐約時報。檢索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 微軟希望 Cortana 能帶領一支聊天機器人軍隊取得勝利。(未註明日期)。檢索自 2016 年 5 月 9 日,來自 http://www.engadget.com/2016/03/30/microsoft-build-cortana-chatbot-ai/
- ↑ Markoff, J. 和 Mozur, P. (2015 年 7 月 31 日)。為了獲得同理心的耳朵,更多中國人轉向智慧手機程式。紐約時報。檢索自 http://www.nytimes.com/2015/08/04/science/for-sympathetic-ear-more-chinese-turn-to-smartphone-program.html
- ↑ 與 Tay 相反,微軟的中文聊天機器人小冰實際上很愉快。(未註明日期)。檢索自 2016 年 5 月 9 日,來自 https://www.inverse.com/article/13387-microsoft-s-chinese-chatbot-that-actually-works
- ↑ Gibbs, S. (2016 年 3 月 30 日)。微軟的種族主義聊天機器人帶著吸毒的 Twitter 崩潰迴歸。檢索自 2016 年 5 月 9 日,來自 http://www.theguardian.com/technology/2016/mar/30/microsoft-racist-sexist-chatbot-twitter-drugs
- ↑ Price, R. (2016 年 3 月 24 日)。微軟刪除了人工智慧聊天機器人 Tay 釋出的種族主義、種族滅絕推文 - 商業內幕。檢索自 2016 年 5 月 9 日,來自 http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-3?r=UK&IR=T
- ↑ Petri, A. (2016 年 3 月 24 日)。支援特朗普的納粹聊天機器人 Tay 的可怕教訓。華盛頓郵報。檢索自 https://www.washingtonpost.com/blogs/compost/wp/2016/03/24/the-terrifying-lesson-of-the-trump-supporting-nazi-chat-bot-tay/
- ↑ Mims, C. (2010 年 11 月 2 日)。聊天機器人消磨了反對科學謬論者的支持者。檢索自 2016 年 5 月 9 日,來自 https://www.technologyreview.com/s/421519/chatbot-wears-down-proponents-of-anti-science-nonsense/
- ↑ Garfield, L. (2015 年 12 月 16 日)。使用機器人傳播政治宣傳的 5 個國家。檢索自 2016 年 5 月 9 日,來自 http://www.techinsider.io/political-bots-by-governments-around-the-world-2015-12
- ↑ Weinberger, M. (2016 年 1 月 21 日)。美國政府舉辦了一場比賽,識別 Facebook 和 Twitter 上的惡意宣傳機器人。檢索自 2016 年 5 月 9 日,來自 http://www.businessinsider.com/darpa-twitter-bot-challenge-2016-1