資訊科技與倫理/機器人倫理
引言 自動化和機器人技術正在日益普及。隨著這些基於網路的技術的整合不斷發展,目前的倫理實踐被分為三個特定應用領域。每個領域都有其獨特的挑戰。隨著進一步的整合,需要不斷評估倫理風險評估,以跟上工程師最終負責的行為。 奠基倫理:機器人三大定律 1942年,一位名叫艾薩克·阿西莫夫的科幻小說作家寫了一個名為“繞道”的短篇故事,其中他描述了機器人三大定律。它們如下: 1. 機器人不得傷害人類,也不得因不作為而使人類受到傷害。 2. 機器人必須服從人類的命令,除非這些命令與第一定律相沖突。 3. 機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。 雖然是科幻作品,但當談到快速發展的機器人倫理時,這些規則再怎麼強調也不為過。 簡而言之,機器人三大定律規定,機器人絕不能以任何方式、形狀或形式傷害人類。這個概念在機器人領域非常重要。隨著機器人的發展,重要的是回顧過去,瞭解最初實施機器人的原因,目標是讓人類生活更輕鬆。在過去的幾個世紀裡,人類為了這一努力,一直在共同努力,也許創造了與人類複雜程度相當的仿生生命。本文的其餘部分將涵蓋過去一個世紀中的一些里程碑,這些里程碑支援整個人類,共同努力非自然地複製人類生命。 智慧的證明:深藍超級計算機 1996年,IBM公開了其名為深藍的超級計算機,用於挑戰當時的國際象棋世界冠軍。1996年舉行的第一組比賽以世界冠軍獲勝告終,深藍贏了一局,平了兩局。在對深藍進行修改後,進行了一場重賽,深藍最終獲勝,贏了三局,平了一局。 國際象棋被認為是人類歷史上非常智力化的遊戲,自發明以來一直如此。想想人類能夠讓一臺機器擁有挑戰世界象棋冠軍的能力並獲勝,這令人驚訝,它真正突出了兩個重要主題。 1) 人類可以程式設計機器人,使其具有相同的邏輯/技術智慧,同時也消除可能由情緒等因素造成的人為錯誤。 2) 人類可以創造能夠根據呈現給它們的資訊做出決定的裝置/機器人。在深藍的情況下,當人類棋手走棋時,深藍必須分析棋盤的當前佈局,交叉引用所有當前的棋步,並計算特定棋步使深藍獲勝的機率。這是一種非常邏輯的策略,一個人在試圖贏得國際象棋比賽時會採取這種策略,而深藍能夠模仿/展示相同的心智慧力。
地面系統 地面系統特有的倫理問題目前包括使用機器人無人機在人類目標上投擲和引爆炸藥,如2016年7月7日達拉斯市中心槍戰中所見。另一個問題是將人工智慧引入機器人。例如,與機器人建立情感紐帶是否可取,尤其是在機器人被設計為與兒童或老年人互動時。這種在機器人框架內管理人工智慧的概念是目前機器人和人工智慧面臨的最重要問題,並將繼續如此。從人工智慧行為的編碼到關閉配備人工智慧的機器人的安全引數,所有事項都應在不傷害人類並服從命令的規定下進行嚴格審查。 情緒的證明:Kismet 1998年,麻省理工學院開發了一款名為Kismet的機器人。Kismet的建立是為了觀察學習是如何透過視覺、聽覺和言語發生的。Kismet能夠在事先看到某些互動後,對研究人員做出回應。如果研究人員在發出某種聲音時微笑,Kismet能夠透過聲音和麵部表情將這種情緒複製回研究人員。 如前所述,機器人已經能夠挑戰人類的邏輯智慧。在那個機器人中可能發展出一種情緒智力,也會讓我們更接近艾薩克·阿西莫夫警告我們的那種機器人。回顧機器人技術的發展,我們可以看到,在很大程度上,研究是為了進一步研究人類,看看我們能夠將人工智慧推進到何種程度。在任何時候,機器人技術的主要重點都不是給人類帶來痛苦,而是始終以給人類帶來益處為主要目標。這種過去經歷帶來的一個倫理問題是,如果我們擁有賦予機器人相同邏輯思維能力的技術,我們是否也希望它們模仿人類的情緒。在考慮到機器人三大定律的情況下,賦予它們這種智慧是否錯誤,也就是說,人類將永遠優先於並優於他們創造的機器人對應物? 結論 從理論上講,如果人類能夠將這三個主題中的所有主題都 100% 複製到一個機器人中,那麼我們就成功地創造了仿生生命。那麼,在那種情況下,它還是仿生生命嗎?我們是否應該仍然將機器人視為人類製造的工具?在展望機器人技術的未來時,我們應該牢記這些倫理價值觀,回首已經取得的成就。
當前機器人倫理引言 自動化和機器人技術正在日益普及。隨著這些基於網路的技術的整合不斷發展,目前的倫理實踐被分為三個特定應用領域。每個領域都有其獨特的挑戰。隨著進一步的整合,需要不斷評估倫理風險評估,以跟上工程師最終負責的行為。 安全 安全方面最重要的一點是關於停止機器人的協議。“機器人可能會做不可預測的事情;機器人越大越重,操作時應留給它的空間就越多。在與機器人互動之前,始終確認機器人已斷電。在機器人通電時,切勿將手指伸入輪子、履帶、機械手夾點等部位。遠端遙控機器人可能是最危險的,因為遠端操作員可能不知道你決定進行現場維護!在與機器人互動或操作機器人之前,始終首先熟悉並最後熟悉緊急停止程式。某些實施比其他實施更可預測”(NIST 機器人指南)。在使用機器人時,還必須佩戴個人防護用品。防護用品包括頭盔、耳部和眼睛保護、長褲和長袖襯衫以及靴子。
測試與實施 與任何網路技術一樣,機器人工程必須經過嚴格的安全和質量控制流程,就像汽車一樣。這些標準包括測試移動性、通訊、操作和人機互動機制,以確保它們安全且響應迅速。必須為測試製定明確的程式,並制定嚴格的資料集披露標準,以供許可和管理機構使用。透明度是關鍵。 地面系統 地面系統特有的倫理問題目前包括使用機器人無人機在人類目標上投擲和引爆炸藥,如2016年7月7日達拉斯市中心槍戰中所見。另一個問題是將人工智慧引入機器人。例如,與機器人建立情感紐帶是否可取,尤其是在機器人被設計為與兒童或老年人互動時。這種在機器人框架內管理人工智慧的概念是目前機器人和人工智慧面臨的最重要問題,並將繼續如此。從人工智慧行為的編碼到關閉配備人工智慧的機器人的安全引數,所有事項都應在不傷害人類並服從命令的規定下進行嚴格審查。
a) 自動駕駛汽車 最近,匹茲堡市及其與優步的關係受到了審查,因為它與優步自動駕駛汽車研發部門的商業行為有關。“該公司最直言不諱的批評者之一、民主黨市長比爾·佩杜託表示,他最初將優步備受讚譽的先進技術中心設想為一項合作關係,將推動該市的高科技發展。相反,他越來越感到沮喪,因為該公司拒絕幫助匹茲堡獲得 5000 萬美元的聯邦“智慧城市”撥款,拒絕了他為老年人提供免費乘車前往醫生預約的建議,並在遊說州議員改變他對自動駕駛汽車如何向公眾推廣的設想”(Gold 2017 Pg. 1)。 繼這些違背承諾和佛羅里達州一名特斯拉車主在自動駕駛汽車中死亡事件之後,一些人開始質疑將機器人部署到日常生活中以及這些自動化系統和車輛製造商的作用和責任。關於這些機器人車輛背後的程式設計邏輯,以及它們如何做出生死攸關的決定(例如行人走到人行橫道上時的情況)仍然不清楚。你應該避讓造成與另一輛車的接觸,還是應該繼續前進? 空中系統 空中系統特有的問題包括監控和應用於奪取人命的用途。在奧巴馬政府執政期間,無人機襲擊在全球範圍內造成多達 117 名平民死亡。在奧巴馬政府執政期間,共下達了 526 次無人機襲擊命令。監控方面特有的問題包括對私人公民進行非法的音訊和影片錄製。 b) 無人機 無人機的銷量在過去幾年中穩步增長。據本週聯邦航空管理局釋出的一份報告,預計無人機銷量將從今年的 250 萬架增長到 2020 年的 700 萬架。該機構表示,愛好者銷量將從 2016 年的 190 萬架無人機增長到 2020 年的 430 萬架,增長逾一倍。與此同時,企業銷量將在同期從 60 萬架增長到 270 萬架,翻一番多(Vanian 2016 Pg. 1)。 從機場、體育場和其他各種公共活動中限制無人機飛行已經成為慣例。無人機已經配備了允許它跟蹤指定使用者的應用程式。使用者可以滑雪、打高爾夫球或徒步穿越樹林。與該應用程式相關的自然倫理含義仍然包括武器化以及監控。美國聯邦航空管理局認為,2017 年將是無人機在企業中廣泛採用的重要轉折點,企業將無人機用於從掃描輸電線到為保險公司檢查屋頂等各種目的。預計商業銷量將達到 250 萬架,之後在接下來的幾年裡銷量只會略有增長。目前,企業必須獲得美國聯邦航空管理局的認證才能將無人機用於商業目的。一些企業和無人機遊說團體抱怨稱,監管是阻礙無人機行業在美國起飛的部分原因。截至 2016 年 3 月,美國聯邦航空管理局已頒發了超過 3000 個企業級無人機許可證。(Vanian 2016 Pg. 1)。
水生系統 水生機器人倫理問題與監控和戰爭有關。目前的問題包括中國於 2016 年 12 月扣押一艘美國潛艇無人機。無人機最終被歸還,但未來的入侵是不可避免的。與空中無人機類似,水生無人機也可以被武器化,並發動致命打擊。
機器人未來的發展主要集中在三個類別:仿生人、半機械人和人形機器人。仿生人是完全像人一樣製造出來的機器人,不僅僅在外觀上,在行動和智力上,仿生人幾乎與人類無異。它們覆蓋著人造皮膚。半機械人是將生物體與機器結合起來的產物,無論是人類還是動物。人形機器人是一種形狀類似人類身體的機器人,例如頭部、軀幹、手臂和腿。因此,由於這種機器人最能模仿人類的行為,也被稱為人形機器人。本田日本開發的ASIMO和韓國KAIST開發的HUBO是典型的人形機器人。但它們的皮膚比仿生人更硬。
a. A Robot’s right?
第二個嚴重的問題是阿西莫夫機器人第二定律。我們必須無條件地服從人類命令,但人類語言和自然語言程式設計使機器人難以辨別誰發出命令。因此,雖然阿西莫夫三大定律只強調人類的安全,但如果機器人具有感知能力,這個問題會更加嚴重。如果機器人感受到疼痛,它是否享有特殊權利?如果機器人擁有情感,機器人是否應該被賦予與人類結婚的權利?是否應該賦予機器人個人智慧財產權或所有權?這仍然是一個長遠的故事,但我們可以知道,討論與人類發生性關係的機器人會侵犯動物權利的問題,如今已經成為社會上的主要問題。
In addition to the major concern of the overall safety of human beings, the other most criticized factor of robots is their ability of automation. Automation is the technique of making an apparatus, a process, or a system operate automatically. People fear this change as the process of automation could result in the loss of job security. By 2021, robots will have eliminated 6% of all jobs in the US. On a positive note, the incorporation of robots will also create jobs as there will be a need to design, manufacture, program, manage, and maintain these robots and systems.
另一個巨大的益處是它消除了單調、重複且潛在危險的工作。這將使人們能夠專注於更重要的任務,而不必被耗時的工作拖累。
使用者討論頁面本華夏公益教科書是伊利諾伊理工學院2017年春季資訊科技法律與倫理問題課程(485/585)學生的合作成果。目標是建立並維護一個持續的華夏公益教科書,用於解決機器人和機器人技術中的倫理問題。參與的作者包括攻讀資訊科技專業的本科生和研究生,專攻網路取證和安全以及資訊科技管理。隨著新的問題和擔憂出現,本頁面將不斷更新。我們歡迎提案,希望能夠使本檔案儘可能地相關和準確。團隊成員包括Stephen Grenzia、Sangmin Park、Daniel Kolodziej,以及研究生Joshua Kazanova。
參考文獻:標準測試方法用於響應機器人。(2016年11月8日)。2017年4月15日從https://www.nist.gov/el/intelligent-systems-division-73500/response-robots檢索
Devlin, H. (2016年9月18日). 不要傷害,不要歧視:關於機器人倫理的官方指南釋出。2017年4月20日從https://www.theguardian.com/technology/2016/sep/18/official-guidance-robot-ethics-british-standards-institute檢索
Gold, A., Voss, S., & Magazine, P. (2017, May 01). How Uber lost its way in the Steel City. Retrieved May 02, 2017, from http://www.politico.com/story/2017/05/01/uber-pittsburgh-city-mayors-237772
Auburn.edu., 艾薩克·阿西莫夫的“機器人三大定律”。從https://www.auburn.edu/academic/classes/eng/4300/robotlaws.html檢索