資訊科技與倫理/未來機器人倫理
自主系統是人工智慧的一個子集,是指能夠在沒有人為干預或監督的情況下采取行動和做出決策的系統。這些系統及其相關應用對世界產生了巨大的影響,取得了令人矚目的成就,不僅在技術領域,而且在農業、海洋技術、地理空間成像等其他領域,而自主系統的其他應用可以在自動駕駛汽車、服務機器人、醫療保健等領域看到。 [1].
自主系統為國家經濟帶來了積極的推動作用,在減輕工作壓力方面至關重要,因此這類系統得到了快速發展,並不斷得到改進。然而,對於這些系統的倫理問題以及它們隨後做出的決策的擔憂,一直存在於這項技術存在的整個過程中。任何做出的決定都應與人類的推理和思想保持一致,同時要考慮到各種情緒、環境和行動的未來後果。需要制定一些規則和條例,以確保即使沒有人為監督,自主系統也不會越過設定的界限,或走上道德/倫理模糊的道路。這項技術無疑已經取得了長足的進步,但在完全被信任方面還有很長的路要走,正如一群駭客能夠透過在限速標誌上戰略性地貼上膠帶,將特斯拉汽車“欺騙”成在 35 英里/小時區域內以 85 英里/小時的速度行駛一樣。雖然汽車仍然在盡其所能地行駛,但人類駕駛員能夠考慮到道路的位置來判斷 85 英里/小時是否是一個安全的速度。 [2].
自主系統也廣泛用於戰爭,在這種情況下被稱為致命性自主武器 (LAW)、自主武器系統 (AWS) 或致命性自主機器人 (LAR)。隨著全球無人機和崗哨槍的使用增加,倫理問題也隨之出現,一些政府和人權組織呼籲並倡導全面禁止這類武器。 [3]. 與所有道德問題一樣,人類的情緒和價值觀在戰鬥結果中起著決定性作用,將人類從方程式中移除實際上是在繞過戰鬥中可能做出的任何道德和倫理判斷。由於在這個問題上不斷受到批評,一些規則開始被制定,例如國防部指令第 4.b 條規定:“授權使用、指揮使用或操作自主和半自主武器系統的人員,必須以適當的謹慎態度,並根據戰爭法、適用的條約、武器系統安全規則和適用的交戰規則 (ROE) 進行操作。” [4]"
然而,許多反對致命性自主武器的人仍然反對使用“殺人機器人”,他們的理由是法律和立法不一定反映我們的道德價值觀。因此,重點正在從開發針對人類的致命性自主武器轉向開發針對基礎設施的系統,儘管這本身也引發了一些問題。雖然從理論上講,破壞基礎設施比奪取人命更道德,但不能保證在攻擊基礎設施時不會造成人員傷亡;然而,由於其自身的性質,自主武器系統的使用使政府和軍隊免受任何問責。
國際紅十字委員會 (ICRC) 於 2017 年 8 月在日內瓦舉行了一次圓桌會議,討論在戰爭中使用任何和所有致命性自主武器的後果,並得到了他們禁止這類武器的提議的支援。 [5]. 然而,尚未採取決定性的行動,美國政府發表宣告稱,已聽取了 ICRC 的關切,但這項技術還太年輕,尚不適合採取如此明確的立場。 [6].
隨著高科技自主機器人的發明,許多規則和條例需要進行修改。“此外,非自主系統的穩定性分析通常需要與自主系統(具有恆定係數的系統)完全不同的特定工具。” [7]. 在所有這些技術中,無人機是人工智慧領域高度發展和研究最多的領域。研究人員和高科技人士正在尋找更多方法將無人機應用到日常生活之中。到目前為止,無人機在應用領域取得了成功,並豐富了該研究領域。由於其近期的成功,無人機需求量不斷增加,並且由於無人機新領域的開發,出現了一些其他必須遵循的協議,以便將它們投入使用。大多數無人機被用於軍事和防禦目的,在國家邊界進行巡邏。由於人工智慧是一個廣闊的領域,因此需要經歷許多不同的規則和條例的稽核,這些規則和條例需要透過考慮滿足所有部門的要求來制定。倫理影響對於最大程度地利用自主技術至關重要,特別是對於無人機來說,它正在日益取得巨大進步。為此,需要透過航空部規則、國防部協議以及軍隊的其他指揮官進行篩選。
無人機已經成為我們日常生活的一部分,它們參與了武裝衝突,以及控制牲畜、用於新聞或電影製作、交通監控等。鑑於無人機的演變速度遠超監管框架,因此這些新的監管措施正在逐漸出現,並且是在緊急情況下制定的。這些無人機非常容易在網上購買,因此看到無人機飛過城市人口稠密的地區並不奇怪,當我們被告知它可能引發任何型別的意外事故時,我們也並不感到驚訝。 正如社會對無人機的需求正在逐漸得到監管一樣,對無人機相關隱私問題的監管也同樣重要。由於如今無人機可以配備的裝置遠不止傳統的攝像頭,這意味著對隱私的嚴重侵犯。他們也逐漸對無人機可以做什麼和不能做什麼進行監管,比如職業無人機記者協會就表示,只要資訊可以透過其他方式獲得,就不需要使用無人機來獲取資訊。
自古以來,交戰方就一直在尋求對敵方部隊造成最大程度的傷害,並保護自身。在比對手更遠的地方行動或獲得更大的保護,一直是歷史上的常態。任何自尊的領導人不會透過不必要地冒著自己部隊的生命危險來尋求勝利。這就是為什麼這些無人機為這些不冒不必要生命危險的問題提供了答案,它們也被用於武裝衝突已有十多年了。這引起了人們的理解,因為這種型別的系統可以徹底改變戰爭本身的作戰方式。他們將戰爭變成了透過電腦螢幕進行指揮、控制和執行的一種遊戲。
此外,還應為戰鬥問題確定平民和士兵之間的區別。必須考慮到,如果無人機在衝突中侵犯了平民的權利,誰應對攻擊負責,或者他們是否確實犯下了戰爭罪。這類問題已經由人權理事會提出,特別是針對致命武器的使用,例如無人機,在軍事行動中使用無人機,由於無人機或無人駕駛航空器的興起,導致空襲缺乏明確性。因為存在所謂的責任真空。無論如何,這場辯論基本上圍繞著使用武力時兩個經典因素展開:自衛或先發制人行動。精準技術、武裝無人機或機器人的引入,使社會遠離戰爭的殘酷現實,正如以往一樣,交戰方需要後方部隊的支援。

"擬人化" 當機器人變得越來越像人類,行動和感覺都比以往更加人性化,而人類開始將這些新機器人當作寵物和重要的伴侶,甚至家人時,擬人化的問題就出現了。儘管大多數人沒有意識到,僅僅在製造業和工業工作場所,機器人就主導著我們最繁瑣的任務。但當你賦予機器人一張臉、語音識別和一些類似寵物的功能時,情況就會發生改變,情緒就會成為一個因素。將人類特徵、情緒或意圖賦予非人類實體的行為,被認為是人類心理的一種本能傾向。一個很好的例子可以從名叫(HitchBot)的機器人的特殊案例中觀察到。2015年,“HitchBot”,一個搭便車機器人,被設定為一個實驗,旨在搭便車穿越全國。這個可憐的機器人走了相當長的一段路,但最終在途中被惡意破壞,無法修復。這個悲劇事件的故事登上了新聞頭條,人們對這個小小的搭便車機器人表示了同情和情緒上的共鳴。全國範圍內有許多推文回應了這一令人髮指的暴力行為,許多人認為這種行為是殘酷和不人道的,例如“對不起,小夥子,一些壞人的人性表現”以及其他表達悲傷和哀痛的推文。讓我們也考慮一下“Spot”的案例,這是一個由谷歌旗下公司波士頓動力公司製造的新型狗形機器人。網上有一段影片展示了這隻機器人狗的穩定性,影片中反覆地用力踢它,它在小跑中仍然保持平衡,展示了它保持鎮定的能力。人們對此感到憤怒,甚至聯絡了美國善待動物組織(P.E.T.A.),試圖指責該公司虐待“狗形”機器人!
超人類主義是機器人對人類進行增強的研究和開發。這是一種用機器人技術增強人體以增強人類能力的行為。超人類主義者認為,技術是超越人類進化極限所必需的。但這其中存在道德和倫理問題。反對超人類主義的一個倫理論點是,增強會提高正常的基線,進一步擴大有權使用增強技術的人與沒有權使用增強技術的人之間的差距。這將加劇世界上的不平等。考慮到人性,一個倫理問題是,那些沒有被增強的人可能會成為低人一等的人。還有醫療方面的擔憂,即隨著時間的推移,可能會對人體造成損害,對自身和他人都可能造成巨大危害。鑑於當前的隱私問題和技術,隱私是一個主要的倫理問題。某些增強技術可能會跟蹤其使用者的資料,而這些公司可能會未經您的同意使用您的資料。支援該技術的論據是幫助和公平競爭。對所有人而言,這是一個公平的結果,但決定誰可以接受增強技術,誰不能接受增強技術仍然存在倫理問題。
當談到人類對事物的依戀時,這是一個非常真實且驅使我們行動的力量,幾乎影響著我們的一切。我們都希望擁有的物品是獨一無二的,屬於我們自己。在機器人領域,我們設計機器人的方式也是如此。當我們創造一個機器人使其看起來更像人類時,我們渴望創造出屬於我們自己的東西,並且它是“獨一無二的”。問題在於,有人越接近設計一個更像人類的機器人,它對人類來說就越令人反感。這就是所謂的“恐怖谷”。

“恐怖谷”是當我們遇到一個幾乎但不完全像人類的實體時,情緒反應中出現的下降。根據theconversation.com,“這個理論最早是由日本機器人設計師森政弘於 1970 年提出的,他發現,隨著機器人變得越來越像人類,人們會發現它們比機械化的機器人更令人接受和更具吸引力,但這種趨勢只持續到一定程度(Lay, S. (2015, November 10)).” 文章繼續解釋說,當機器人接近人類的外表但無法區分時,就會產生一種不安和不舒服的感覺。然而,測試結果表明,當機器人設計超越這個點時,在情緒反應方面,它開始變得積極。這個名字“恐怖谷”,就來自於這個出現的下降(Lay, S. (2015, November 10)).
這個理論存在的原因之一與我們的心理以及我們如何看待自己的生活有關。例如,如果外觀存在微小的缺陷和瑕疵,會讓我們感到看到死物在模仿人類。這就像在現實生活中觀看殭屍電影一樣。這可能會引起對機器人的恐懼或厭惡,因為有人提出,它會讓我們想起自己的死亡。
恐怖谷的一個新元素是,現在科學家和醫生已經找到了讓機器人看起來與人類一模一樣的方法。看到一個機器人,很明顯它不是人類,這是一回事。九州大學的米津史也博士做了一個實驗來測試人們的反應,研究小組要求人們觀察具有相同面孔(克隆)、不同面孔以及同一個人的照片。研究參與者被要求評價影像的逼真度,他們對影像的情緒反應以及他們發現影像有多麼怪異。
結果相當確定且直接。克隆看起來越像某個人,人們就越害怕和緊張。事實上,它引發了一種新的現象,稱為“克隆貶值效應”。這就是為什麼像《西部世界》和《真實的人類》這樣的節目如此受歡迎的原因,人們越來越著迷於他們為電影製作了像人類一樣的機器人。現在我們到了,他們正在製作看起來像人類的機器人,這對人們來說非常不安。
自主機器和系統代表著一種願望,既要補充也要取代某些工作和勞動力中的因素。人工智慧在工作場所的應用預測對所有相關方都有積極和消極的影響,因為人工智慧系統可以用來完全取代特定職業的人員,從而消除這些工作,但它們也創造了大量其他工作和機會,這些機會可以被認為是工作流失。
隨著人工智慧系統被研究得越來越善於完成通常需要人類智慧的任務,它們最終將被用來取代那些能夠做到這一點的行業中的人類勞動力。這些行業包含的任務屬於易於自動化的類別,包括以下內容[8]
- 製造業——人工智慧系統能夠做的事情比任何人都多,能夠在某些任務中完全取代他們,而且成本更低。[9]
- 農業——人工智慧公司一直在訓練機器人執行農業領域的多種任務,例如控制雜草和收割作物,速度更快,產量更高,超過了人類。[10]
- 零售業——許多零售工作已經被自助結賬亭、人工智慧禮賓、移動支付系統和亞馬遜 Go 風格的商店取代,自動化潛力為 53%。[11]
- 交通運輸和物流——雖然無人駕駛汽車仍然是一項技術,它已被證明比預期更難推向市場,但它仍然提供了一種旨在消除對人類駕駛員需求的解決方案。預計送貨員特別容易受到自動化的影響,自動化潛力為 78%。[12]
估計表明,僅在美國,47% 的人類工作面臨著很高的“計算機化”風險。[13] 這些損失不成比例地影響著低技能的工人,例如藍領工人和在流水線上工作的人。[14] 雖然人工智慧的目標可能不是讓員工失業,但與所有技術進步一樣,總有一些較舊的技術或群體受到負面影響。
雖然人工智慧系統最終會取代低技能工作或具有重複性或易於程式設計任務的工作,但它們也會為不同人群創造大量其他工作和機會。這導致了將人工智慧引入勞動力後可能被認為是整體工作崗位流失,因為新技術不僅會摧毀工作崗位,還會創造工作崗位。[15]
世界經濟論壇 2018 年的一份報告估計,到 2022 年,人工智慧將創造總計 5800 萬個新的工作崗位,而且這些工作崗位很可能不會遵循傳統的全職就業模式,而是擴充套件到遠端勞動力。[16] 因此,大多數這些新工作將需要對勞動力進行“提升技能”和“再培訓”。[17] 這是因為人工智慧系統將開始補充這些工作和職業。
到 2030 年,人工智慧將導致全球 GDP 估計增長 15.7 萬億美元,增長 26%。[18] 建立的工作崗位將使工人能夠專注於更高價值和更高接觸的任務,這將為企業和個人創造利益。[19] 隨著人工智慧研究的不斷深入,它將導致建立的就業崗位數量總體增加,尤其是高技能和高需求的崗位,但最終會減少對低技能勞動的需求。
- ↑ 以人為本的人工智慧,特別興趣小組。 https://www.uu.nl/en/research/human-centered-artificial-intelligence/special-interest-groups
- ↑ 駭客讓特斯拉汽車自動加速到 85,在 35 區。 (2020 年 2 月 19 日)。 https://www.forbes.com/sites/daveywinder/2020/02/19/hackers-made-tesla-cars-autonomously-accelerate-up-to-85-in-a-35-zone/?sh=71f981147245
- ↑ 倫理與自主武器系統:人類控制的倫理基礎? (2018 年 7 月)。 https://www.armscontrol.org/act/2018-07/features/document-ethics-autonomous-weapon-systems-ethical-basis-human-control
- ↑ 國防部指令,《武器系統自主性》。 (2012 年 11 月 21 日)。 https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf
- ↑ 倫理與自主武器系統:人類控制的倫理基礎?。 (2018 年 4 月 3 日)。 https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control
- ↑ CCW:美國在致命性自主武器系統政府專家組會議上的開場白。 (2018 年 4 月 9 日)。 https://geneva.usmission.gov/2018/04/09/ccw-u-s-opening-statement-at-the-group-of-governmental-experts-meeting-on-lethal-autonomous-weapons-systems/
- ↑ 具有時變延遲的線性非自治系統的有限時間穩定性。差分方程進展,2018(1),1-10。doi:10.1186/s13662-018-1557-3
- ↑ 技術組織。 (2021 年 2 月 1 日) 人工智慧對失業的影響。技術組織科學與技術新聞。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
- ↑ 製造商。 (2020 年 6 月 25 日) 人工智慧和物聯網如何影響製造業就業市場。製造商。 https://www.themanufacturer.com/articles/ai-iot-affects-manufacturing-job-market/
- ↑ Jain, P. (2021 年 7 月 23 日) 人工智慧在農業中的應用:利用現代人工智慧解決傳統農業問題。農業中的 AI:人工智慧在農業中的應用。 https://www.analyticsvidhya.com/blog/2020/11/artificial-intelligence-in-agriculture-using-modern-day-ai-to-solve-traditional-farming-problems/
- ↑ McDonald, S. (2019 年 5 月 29 日) 近一半的零售銷售工作可能會很快被自動化取代。報告:自動化和人工智慧將取代近一半的零售銷售工作。 https://footwearnews.com/2019/business/technology/automation-retail-sales-jobs-ai-1202786189/
- ↑ Deming, D. (2020 年 1 月 30 日) 機器人來了。做好準備應對麻煩。 https://www.nytimes.com/2020/01/30/business/artificial-intelligence-robots-retail.html
- ↑ Saner, M.,& Wallach, W. (2015)。技術性失業、人工智慧和工作場所標準化:融合論點。倫理與新興技術雜誌,25(1),74-80。
- ↑ Vincent, J. (2017 年 3 月 28 日) 機器人確實會破壞工作崗位並降低工資,一項新研究表明。 https://www.theverge.com/2017/3/28/15086576/robot-jobs-automation-unemployent-us-labor-market
- ↑ 聯合國。 (無日期) 機器人和人工智慧會導致大規模失業嗎?不一定會,但它們確實帶來了其他威脅。聯合國。 https://www.un.org/en/desa/will-robots-and-ai-cause-mass-unemployment-not-necessarily-they-do-bring-other
- ↑ 技術組織。 (2021 年 2 月 1 日) 人工智慧對失業的影響。技術組織科學與技術新聞。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
- ↑ 技術組織。 (2021 年 2 月 1 日) 人工智慧對失業的影響。技術組織科學與技術新聞。 https://www.technology.org/2019/12/17/the-impact-of-artificial-intelligence-on-unemployment/
- ↑ Kande, M.,& Sonmez, M. (2020 年 10 月 26 日) 不要害怕人工智慧。該技術將帶來長期就業增長。世界經濟論壇。 https://www.weforum.org/agenda/2020/10/dont-fear-ai-it-will-lead-to-long-term-job-growth/
- ↑ Kande, M.,& Sonmez, M. (2020 年 10 月 26 日) 不要害怕人工智慧。該技術將帶來長期就業增長。世界經濟論壇。 https://www.weforum.org/agenda/2020/10/dont-fear-ai-it-will-lead-to-long-term-job-growth/