資訊科技與倫理/當前機器人倫理
人工智慧是一種旨在複製人類邏輯響應以提高技術自主性的演算法。人工智慧具有強大的歷史和多項應用,其功能超越了提高應用程式的效率和功能,大資料分析等。最近,公眾對人工智慧的興趣與日俱增,這主要是由於人工智慧的行為和決策帶來的道德,社會和法律後果。它引發了人們對該技術決策的社會和道德影響以及倫理考量的質疑。這種區別不僅可以幫助確定我們作為一個社會對人工智慧的信任程度,而且還有助於確定人工智慧的影響和信任度。
1950年,英國數學家艾倫·圖靈發表了他著名的“計算機械與智慧”論文。在這篇檔案中,他希望證明機器是否能表現出與人類類似的智慧 [1]。圖靈提出了圖靈測試,以證明計算機是否能思考。這篇出版物是世界上首次介紹人工智慧,但直到1956年的達特茅斯會議 [1],人工智慧才正式問世。
這次會議被稱為達特茅斯夏季人工智慧研究專案,被認為是人工智慧的誕生地。當五位未來的與會者在之前的一年提交了該專案的提案時,人們首次看到了“人工智慧”這個詞 [2]。這五個人分別是:約翰·麥卡錫,馬文·明斯基,內森尼爾·羅切斯特和克勞德·夏農。
在早期,人工智慧是人們談論的中心話題,它引起了美國政府的關注並獲得了資助 [1]。第一個成功的專案之一是早期自然語言處理計算機程式或ELIZA(1964-1966年)(Wortzel,2007)。該專案由德國裔美國計算機科學家約瑟夫·維森鮑姆在麻省理工學院領導。它成為世界上最早的聊天機器人的版本之一。儘管其背後的設計比較原始,但它能夠透過圖靈測試(Wortzel,2007)。1974年,由於進展緩慢,美國退出的人工智慧競賽,導致該領域突然停止。這段停滯期從1974年持續到1980年,被稱為人工智慧的第一個冬天 [1]。這個專案後來被英國政府接手,但在1987年被放棄。從1987年到1993年,人工智慧的進展再次停滯,被稱為人工智慧的第二個冬天。直到1996年,IBM的深藍才取得了第一個突破。
人工智慧 (AI) 是一個擁有許多不同子領域和分類的領域的描述。並非所有的人工智慧都是一樣的。人工智慧分類是人工智慧倫理的重要組成部分,因為不同型別的人工智慧能夠做不同的事情,而且其中一些甚至還不存在。
人工智慧分類可以分為兩種型別,第一種型別是對人工智慧更實用和有形的定義,包括它能做什麼以及它如何思考。第二種分類則更多地以理論為導向。
這種第一種分類可以分為 4 種不同的型別或子類。反應型機器,有限記憶機器,心智理論和自我意識機器。
反應型機器能夠對一組有限的輸入引數做出反應。它們不能“思考”,因為它無法處理未知的輸入。它們是“沒有記憶和過去經驗的,它們分析可能的情況並選擇最具戰略意義/最合適的舉動” [3]。這就是為什麼深藍,IBM超級計算機能夠擊敗當時的國際象棋世界冠軍加里·卡斯帕羅夫,是反應型機器的典型例子。
有限記憶機器建立在反應型機器的基礎上,它們能夠利用過去的經驗和資訊來做出未來的決策。從某種意義上說,這些機器能夠“思考”,而不僅僅是對預定義的輸入做出反應並執行預先程式設計的輸出。自動駕駛汽車利用這種系統實現其某些功能 [3]。
心智理論是指預期在以下假設下執行的人工智慧系統:他人的決策會受到其自身信念、願望和意圖的影響。 [3]。目前這類系統還不存在,因為這需要機器能夠處理複雜的人類情緒和思維過程。
自我意識機器是人工智慧的最終階段,目前僅存在於理論中。這類系統與人腦相當,已發展出自我意識 [4]。
型別 2
[edit | edit source]第二類人工智慧分類包含三個子類別:弱人工智慧、通用人工智慧和超級人工智慧。
如果人工智慧系統專門針對特定領域,並且是反應式機器,則被歸類為弱人工智慧(ANI)。IBM 的深藍被歸類為弱人工智慧,因為它具有反應性,並且專門用於下棋。一些現代的弱人工智慧示例包括智慧手機內建的個人助理,例如 Siri 或 Google Assistant,以及“電子遊戲、搜尋引擎、社交網路、網頁 cookie、線上廣告服務、資料探勘和資料抓取工具、自動駕駛儀、交通管制軟體、自動電話接聽服務等等” [5]。
型別 3
[edit | edit source]通用人工智慧代表“人類水平的人工智慧”,即在各個方面都與人類一樣聰明的計算機,能夠執行人類所能執行的所有智力任務” [5]。目前,人工智慧在執行復雜的任務和計算方面非常出色,但人類水平的任務,如語音和影像識別,卻非常困難,因為很難為這些人工智慧提供預先確定的條件,以便在外部條件看似隨機的情況下進行識別。人工智慧科學家估計,人類將在 2030 年左右開發出通用人工智慧 [5]。
型別 4
[edit | edit source]通用人工智慧是與人類認知能力相匹配的人工智慧,而超級人工智慧(ASI)則是比人類在幾乎所有領域都更聰明的人工智慧,包括科學創造力、一般智慧和社交技能 [6]。這些是科幻小說中描繪的人工智慧型別,也是許多人擔心開發比人類聰明得多的計算機的原因。超級人工智慧被創造出來的時刻,就是奇點概念實現的時刻。這是一個技術進步變得不可控的時刻,因為超級人工智慧自身做出的發現速度比人類能夠進行研究的速度快得多。
倫理考量
[edit | edit source]倫理
[edit | edit source]人工智慧的許多實際應用都帶來了倫理問題。儘管人工智慧具有巨大的潛力,可以為人類帶來極大的益處,但也可能被惡意行為者利用。倫理辯論十分複雜,要理解它們,必須按類別進行細分。本節將討論人工智慧的實際應用,以及隨之而來的倫理問題。
隱私
[edit | edit source]在當今的網路時代和社交媒體時代,資料隱私是一個熱門話題。全球數十億人使用多個社交媒體平臺。這些人會生成大量的資料和元資料,這些資料和元資料被公司用於資料探勘實踐。“資料探勘與機器學習、資訊檢索、統計、資料庫,甚至資料視覺化相關” [7]。
人們在社交媒體平臺上生成的功能可以被人工智慧用來尋找相關性並進行預測。這在 2008 年總統大選中首次在政治領域出現,當時社交媒體網站首次成為候選人聯絡選民的重要手段 [8]。這些線上互動收集的資訊讓麻省理工學院的研究人員得以發現候選人社交媒體使用量與 2008 年大選結果之間的相關性 [9]。
因此,線上使用生成的資訊非常有價值,關於社交媒體公司如何使用這些資料,甚至是否應該儲存這些資料,都存在著許多倫理爭議。通用資料保護條例(GDPR)是首個為歐洲公民引入全面資料隱私立法的法律,因為他們認為人們應該擁有對其線上資料的權利。
透明度
[edit | edit source]另一個倫理問題是,當這些人工智慧系統發現相關性並進行預測時,尤其是當它們具有現實世界影響時,它們的透明度問題。許多人工智慧系統遵循封閉和黑盒方法,這意味著只有開發人員才能理解人工智慧的結構以及演算法的功能。這給演算法偏差留下了無法檢測的機會。對於一些機器學習技術,即使是演算法的專家也難以理解這些演算法,這使得難以發現這些偏差。
偏差
[edit | edit source]演算法偏差是人工智慧的一個重大倫理問題。人工智慧系統存在非常重要且真實的現實世界影響。人工智慧被用於金融、醫療甚至政治決策。隨著人工智慧系統變得越來越先進,這種情況將繼續增加。
這就是為什麼人工智慧偏差的倫理爭議與透明度問題密切相關。如果人工智慧將要做出影響許多人的決策,那麼有人認為,最重要的是,這些系統和演算法要由來自不同背景的人進行開發和審查,以期最大限度地減少演算法偏差,並在需要時對其進行糾正。
偏差引發了關於演算法偏差不可避免性的爭論,以及誰應該對人工智慧在執行時做出的決策負責。
2015 年,Google Photos 應用程式就是一個人工智慧演算法偏差和透明度問題的典型例子。這個照片應用程式使用人工智慧對照片中的人、地點和物體進行標記。這是一個處理大量資料的 AI 系統示例,就像警方部門和其他政府機構使用的面部識別系統一樣。Google Photos 應用程式被發現將非洲裔美國人標記為“大猩猩”,並且總體上表現出對女性和有色人種的偏見。據說這些系統過於複雜,以至於沒有人能夠預測它們最終會做什麼 [10]。
安全
[edit | edit source]安全性 在所有先前提到的里程碑中,人工智慧取得了長足的進步。擁有如此不可否認的力量,必須實施保障措施。確保人工智慧安全和道德管理的第一步是制定人工智慧安全指南。為了確保人工智慧在形式(物理/數字)上的正確使用,公司必須建立一個框架,考慮使用此類技術的道德方面。
這將包括制定法規,在軟體工程師、使用者和其他與人工智慧相關的各方之間建立關係。人工智慧的使用必須符合治理體系。公司需要意識到他們在確保人工智慧不損害社會方面的責任 [11]。由於這種人工機器將持有數十億位元組的資料,因此保持資料的完整性至關重要。資料必須保持公平、無歧視,以維護公眾的信任 [11]。這包括實施保障措施來保護和檢測系統上的任何惡意字元 [11]。為了幫助確保某個實體開發的人工智慧不會造成傷害,需要對系統進行廣泛的測試,然後再將其公開。
人機互動和組合
[edit | edit source]自動駕駛汽車
[edit | edit source]人工智慧與感測器技術的進步相結合,促成了自動駕駛汽車的實現。許多為防止碰撞而開發的安全功能已經演變為感測器,能夠提供人工智慧控制單元在沒有駕駛員輸入的情況下駕駛車輛所需的感官資訊 [12]
美國國家公路交通安全管理局 (NHTSA) 定義了 6 個級別的自動化,0 級表示沒有自動化,5 級表示完全自動化。5 級表示乘客無需關注車輛的操作,甚至可能沒有手動控制裝置(例如方向盤) [13]。雖然在駕駛功能自動化方面,在道路的有效利用和消除人為因素帶來的巨大生命拯救方面,自動駕駛可以帶來巨大益處,但在這種系統的開發和實施過程中,必須格外注意責任問題 [14]
經典的“電車難題”,現在人工智慧控制單元正在決定兩種不可取的結果。經過機器學習的人工智慧控制單元,將需要接受培訓,以瞭解哪些結果被認為是更可取的。開發者根據什麼權力來培訓生與死的決定?
感測器、硬體和軟體故障具有潛在風險,需要制定應急措施,才能使全自動駕駛汽車成為現實。即使是較低級別的自動化,教育和對功能的完全瞭解對於乘員和周圍人員的安全也至關重要。如果駕駛員“認為”他們已經啟用了自動駕駛功能,然後跳到後座,而實際上自動駕駛功能並沒有啟動,責任應該由誰來承擔 [15]?
自動化具有巨大的益處,但必須仔細考慮乘員和周圍人員的安全,這比搶先上市和成為自動駕駛領域領導者更重要。
軍用武器 - 人工智慧參與衝突
[edit | edit source]導彈、無人機、自動修正彈藥和武器使軍人能夠遠離傷害,同時繼續向敵人發起攻擊。然而,這種人類衝突天平的失衡,引發了一些道德問題。我們要求軍人按照戰爭法規則奪取他人生命,這給他們帶來了沉重的負擔。由於他們的行為的後果可能會持續一生,因此他們不會輕易做出這些決定。而對機器而言,它沒有任何悔恨,因此軍方使用機器來執行他們的命令可能是不道德的。 [16] [17]
地面系統
[edit | edit source]目前地面系統特有的道德問題包括使用機器人無人機向人類目標運送和引爆爆炸物,如 2016 年 7 月 7 日達拉斯市中心槍擊事件。其他問題包括將人工智慧引入機器人技術。例如,是否應該與機器人建立情感紐帶,特別是當機器人被設計成與兒童或老人互動時。這種在機器人框架內管理人工智慧的概念,是機器人和人工智慧目前面臨的最重要問題,並且在未來也將持續存在。從人工智慧行為的編碼到配備人工智慧的機器人的安全關閉引數,所有這些都應該在不傷害人類並服從命令的前提下受到嚴格審查。
空中系統
[edit | edit source]空中系統特有的問題包括監控和用於奪取人命的應用。在奧巴馬政府任期內,無人機襲擊導致全球約 117 名平民喪生。奧巴馬政府期間共下達了 526 次無人機襲擊指令。監控方面的具體問題包括非法錄製私人公民的音訊和影片。
無人機
[edit | edit source]過去幾年,無人機的銷量一直在穩步增長。據本週釋出的美國聯邦航空管理局報告,無人機銷量預計將從今年的 250 萬臺增長到 2020 年的 700 萬臺。該機構表示,業餘愛好者銷量將從 2016 年的 190 萬臺無人機增長到 2020 年的 430 萬臺,增長超過一倍。與此同時,商業銷量在同期將從 60 萬臺增長到 270 萬臺,增長三倍(Vanian 2016 年第 1 頁)。目前,限制無人機在機場、體育場和其他各種公共活動上空飛行已成為普遍做法。無人機已經配備了允許其跟蹤指定使用者的應用程式。使用者可以是滑雪、高爾夫或在樹林中遠足的人。與這種應用相關的自然道德影響,除了監控外,還包括武器化。美國聯邦航空管理局認為,2017 年將是無人機被企業廣泛採用的轉折點,企業將利用無人機進行從掃描電力線到為保險公司檢查屋頂的各種工作。預計商業銷量將達到 250 萬臺,之後幾年銷量將僅略微增長。目前,企業必須獲得美國聯邦航空管理局認證才能出於商業目的飛行無人機。一些企業和無人機遊說團體抱怨稱,監管是阻礙無人機行業在美國騰飛的原因之一。截至 2016 年 3 月,美國聯邦航空管理局已經頒發了超過 3000 張商業級無人機執照 [18]。
水下系統
[edit | edit source]水下機器人道德問題與監控和戰爭有關。目前的問題包括 2016 年 12 月中國扣押美國水下無人機。無人機最終被歸還,但未來入侵是不可避免的。也可以對無人機進行武器化,使其與空中無人機類似,並實施致命打擊。
外骨骼最初是為了治療肢體受傷或疾病的人而開發的,現在也正變得“更智慧”,使用人工智慧。將人工智慧與外骨骼結合使用,可以提供患者缺乏的控制和穩定功能。[19].
倫理問題是這種融合能夠提供不公平的優勢,或者技術被濫用於非法或不道德的目的。這種不公平的優勢可以在簡單的機械優勢論證中看到,例如布雷克·李珀在 2021 年東京奧運會上使用假肢參加比賽的申訴被駁回[20]
神經技術是一個不斷發展的研究領域,最初的目標是幫助治療神經疾病和損傷,例如四肢癱瘓患者。人與計算機之間的連線正在接受測試,埃隆·馬斯克的 Neuralink 公司正在開發一種可以無線傳輸大腦活動的植入物[21]。這種連線可以使應用程式和技術能夠利用腦部活動,將其轉換為現實世界中的行動。這是邁向半機械人的一步,人類將成為部分人類,部分機器。倫理問題也包括一些宗教問題,即在什麼程度上,醫療干預超越了延長生命,變成了“扮演上帝”?
在精神能力方面,用於治療的人工智慧也應該仔細權衡倫理問題和預期益處。技術已被用於創造逝去愛人的虛擬形象,讓倖存者能夠與數字版本互動,從而在處理失去親人的過程中獲得慰藉。在新冠疫情時代,許多人失去了在臨終關懷時陪伴逝去親人的機會,技術試圖彌合這一差距。在醫院禁止探視的情況下,視訊會議可以讓那些無法探望親人的患者獲得慰藉。將人工智慧技術與人類心理學結合在一起可能是一個非常有益的工具,但也可能是一個非常危險的工具[21].
“擬人化” 當機器人變得越來越像人,行為和感覺都更像人,當人類開始將這些新機器人視為寵物,甚至伴侶、家人時,擬人化的問題就會出現。儘管大多數人沒有意識到這一點,但在製造和工業領域,機器人主導著我們最繁瑣的任務。但是,當你賦予機器人一張臉、語音識別和一些寵物般的特徵時,情況就會發生變化,情緒就會成為一個因素。將人類特徵、情緒或意圖歸因於非人類實體被認為是人類心理的本能傾向。一個很好的例子可以在一個名為(HitchBot)的機器人的特殊案例中觀察到。2015 年,“HitchBot”,一個搭便車的機器人,開始了一個跨越全國搭便車的實驗。這個可憐的機器人走了相當遠的路程,但最終在途中被破壞得無法修復。這個悲慘事件的報道成了頭條新聞,人們對這個搭便車的機器人表達了深深的同情和情緒。全國範圍內有許多推文對這一野蠻的行為做出了回應,許多人認為這是殘忍和不人道的,比如“對於一些壞人的行為,抱歉了小傢伙”以及其他表達悲傷和悲傷的推文。我們還可以考慮一下波士頓動力公司(一家谷歌子公司)製造的“Spot”這個新機器人狗。網上有一段影片展示了這隻機器狗的穩定性,它一遍又一遍地被猛踢,它仍然可以繼續前進,展示了它保持鎮定的能力。人們對此感到憤怒,甚至聯絡了 PETA(動物虐待協會),試圖譴責該公司虐待“類似狗”的機器人!
終端使用者的倫理問題涉及到設計的人工智慧如何使用。它解決的是如何使用技術。例如,自動人工智慧武器如何使用、在什麼情況下使用以及在什麼情況下使用,因為如果自動人工智慧武器殺害無辜者,將會引發道德問題。由於絕大多數模型都是由人類員工訓練的,因此使用者必須瞭解其需要提供的資訊,以實現使用目標,從而儘可能準確地發出異常警報。要獲得終端使用者的信任,不僅需要清晰度,還需要透明度。讓使用者瞭解使用特定人工智慧可能發現哪些異常活動是必要的。有些人工智慧會犯錯誤,比如 Alexa 對播放 Spotify 音樂的音訊請求的響應,但這種錯誤影響不大,不像自動駕駛/自動駕駛汽車。人們希望確定自動駕駛汽車的工作原理,以便了解它們在自動駕駛模式下的安全性。這可能是技術濫用,也可能是技術錯誤。現在,機器人與人類一起工作,例如在工廠、醫院、銀行,甚至駕駛飛機和進行手術。與人類不同,機器人無法區分痛苦和快樂,什麼是錯,什麼是對,是否合理,對人類患者進行手術是生死攸關的事情,如果演算法或指令稍有錯誤,誰應該負責?機器人嗎?因為手術是使用人工智慧進行的。
對人工智慧系統的任何濫用都可能導致混亂和前所未有的結果。人工智慧系統還有助於分析關鍵資料,並對大量資料進行預測,這些資料可能會被網路罪犯濫用於不法目的。人工智慧的另一種流行濫用方式是深度偽造,它利用人工智慧技術操縱音訊或影片內容,使其看起來很真實。即使使用技術解決方案,也很難區分深度偽造內容和合法內容。例如,一個位於英國的能源公司被騙,在一名惡意個人使用深度偽造音訊技術冒充公司執行長的聲音授權付款後,將大約 200,000 英鎊(約合 270,000 美元)轉入匈牙利銀行賬戶。
另一個問題是,在展示或引發情緒時,技術會產生意想不到的後果。其中一個例子是虛擬再現逝去親人或家人,以便倖存者在無法在死亡時獲得這種機會的情況下獲得一些慰藉。潛在的問題是,如果逝去親人的虛擬版本以與現實中那個人不同的方式行為。這可能因此會產生相反的效果,帶來悲傷而不是慰藉[22].
是否應該有一項程式來覆蓋人工智慧的決定作為安全保障?可以爭辯說,人工智慧做出決定的原因首先是將那些睡眠不足、依賴咖啡因、近視、情緒化的普通人從方程中剔除。但是,如果不存在干預控制,那麼如何在人工智慧出現錯誤的情況下改變或糾正人工智慧的決定?
在機器人或人工智慧方面,已經存在著廣泛的興趣。人工智慧中經常討論的一個問題是,當演算法預測不佳時,應該由誰負責?特別是在醫療和汽車行業。人們一直在討論,有些人建議將個人工程師視為責任人,因為他們的模型的影響已經影響了其他人的生活,因此他們應該承擔責任。在極端的假設中,有人也認為,人工智慧的高階水平有可能摧毀人類生命。雖然像亞馬遜、微軟、谷歌、IBM、Facebook 和蘋果這樣的公司正在為商業用途開發人工智慧,並已經採取了個人和集體措施來建立圍繞人工智慧的安全保障,但像加州大學伯克利分校、哈佛大學以及牛津大學和劍橋大學這樣的學術機構也表明了致力於制定一套人工智慧的通用倫理和安全標準的承諾。(Archana Khatri Das)當我們賦予人工智慧我們的權利時,我們也把一些我們不想要的責任交給了它們。有些國家正在努力賦予機器人與我們人類相同的權利,歐盟正在探索授予人工智慧“人格”的可能性。許多國家已經透過賦予非人類權利而取得了進步。以下是享受一定程度的先前人類權利的一些非人類實體的例子:1. 渋谷未來,一個擁有“小男孩”性格的市民聊天機器人,在日本東京渋谷區被該市賦予了“官方居留權”。
索菲亞機器人被沙烏地阿拉伯賦予了實際公民身份。2. 艾麗卡女機器人獲得了工作。甚至有一個美國防止虐待機器人協會,即 ASPCR(“機器人也是人!或者至少他們將來會是“)。愛沙尼亞更進一步,承諾向任何能夠透過所謂的“Kratt 法律測試”的實體授予完全的人權,該測試以一種由家用物品製成的神話生物命名,該生物在“創造”後獲得了知覺。
艾薩克·阿西莫夫在其 1942 年 3 月發表在《驚奇科幻》上的名為“跑腿”的最著名的虛構作品中(阿西莫夫 1950 年)闡述了他的“機器人三定律”。第一定律:機器人不得傷害人類,也不能透過不作為而使人類受到傷害。第二定律:機器人必須服從人類給予的命令,除非該命令與第一定律相沖突。第三定律:機器人必須保護自己的存在,只要這種保護不與第一和第二定律相沖突。除了這些,阿西莫夫在 1983 年還添加了“第零定律”,[透過規定機器人不得傷害人類,也不能透過不作為而使人類受到傷害來撤銷其他三定律],但許多學者指出了艾薩克·阿西莫夫定律的不足之處。應該賦予機器人哪些權利和責任,這仍然是一個正在進行的討論。根據克里斯托弗·斯通的說法,任何事想要成為法律權利的持有者都應該滿足某些標準。
利用人工智慧的價值在於它能夠改善人類生活,而政策和程式的制定是為了指導人工智慧的開發和部署,以避免重大問題和降低風險。人工智慧需要被設計成易於理解和值得信賴的。需要制定政策以安全的方式實施人工智慧,因為圍繞人工智慧部署存在爭論,包括如何保護隱私以及人工智慧偏見是否會導致其執行有害行為。例如,隨著無人駕駛汽車技術的進步,政府已經開始制定法規來指導或限制自動駕駛汽車的測試和使用。“國家公路交通安全管理局(NHTSA)已經發布了一份初步政策宣告,建議各州目前不要授權公眾使用自動駕駛汽車技術”。更新的初步政策宣告將促進和鼓勵在可能的情況下開發和部署具有挽救生命潛力的技術。在涉及像自動駕駛汽車這樣的 AI 時,美國一直在積極制定政策和法規。29 個州頒佈了與自動駕駛汽車相關的立法,11 位州長髮布了與自動駕駛汽車相關的行政命令。雖然人工智慧的好處是巨大的,但重要的是透過使用政策、程式和法規對人工智慧採取審慎的態度。
人工智慧改變了勞動力市場,這是不言而喻的,並且人工智慧的使用只會隨著時間的推移而增長。人工智慧既有助於創造就業機會,不幸的是也導致了就業機會的消失。重要的是要記住,技術進步創造的就業機會將需要與消失的就業機會不同的技能。愛德華·坦納指出,“計算機往往用另一類工人來取代一類工人……你實際上不是用機器來取代人;你是在用另一種機器加人來取代一種人加機器”[19]。例如,機器人工作力的使用導致對可以修理機器人的設計師、操作員、技術人員的需求增加。此外,史密斯和安德森的調查結果發現,“一半的受訪專家(52%)預計,到 2025 年,技術不會導致更多就業機會的流失,而會創造更多就業機會。”[17]。
儘管人們尋求將人工智慧融入現代社會所帶來的創造就業機會的潛力,但仍然存在一些損失。其中最重要的是人工智慧取代我們當前的人類員工。人工智慧大師李開復,現任創新工場執行長,預計人工智慧將在未來 15 年內取代 50% 的就業市場(斯坦,2018 年)。這包括醫療保健到農業等行業(斯坦,2018 年)。雖然這將導致數十億人流離失所,但這將有助於提高人們的標準,以獲得更高教育,希望獲得工作。人工智慧的實施仍然離不開人類的幫助,因為說到底,人類將管理這些智慧機器。
如今的社交媒體無疑已成為全世界與他人保持溝通的最廣泛方式。公司在將人工智慧融入其應用中,以提升使用者體驗和吸引更多使用者方面毫不懈怠。一個例子是 Facebook 利用的人臉識別軟體,以更好地將廣告定位到使用者(赫勒,2019 年)。另一種方法是 LinkedIn,一個流行的求職社交網站,它部署人工智慧,根據使用者對他們 feed 的興趣來連線僱主和員工(Ivanschitz & Korn,2017 年)。人工智慧不僅可以幫助使用者,還可以用來管理平臺上的使用者。一個使用案例是將黑名單關鍵字和過濾不符合公司標準的文字[23]。
在計算領域,一個常見的現象是軟體開發人員將他們的專案公開,讓公眾管理、更改和分發他們的軟體。透過程式設計師將他們的程式碼或程式開源,它允許社群進行開發。[24]。人工智慧也不例外,因為它也已向公眾開放。一家負責管理分發的公司是 OpenAI,其使命是開發造福全人類的人工智慧。雖然公開程式碼有很多好處,但行業仍需警惕隨之而來的許多後果[24]。這些危險之一是深度偽造,它可以操縱影像或聲音,使其看起來像其他人。任何惡意作者都可能利用這一點,給公司和個人造成損害[24]。這只是將原始碼開放給網際網路上數百萬使用者的眾多示例之一。
“這些系統利用機器學習和麵部識別軟體來建立家庭常客的目錄。這使系統能夠立即識別陌生人。人工智慧驅動的安全系統是邁向家庭自動化的第一步,它提供了許多其他有用的功能,例如在孩子放學回家時通知您或跟蹤寵物的動向。這些系統甚至可以自動通知緊急服務,這使得它們成為其他類似基於訂閱服務的絕佳替代品”[25]。
當人們想到自己的家時,他們希望它是他們最安全的地方。人工智慧技術已應用於家庭自動化,這有助於所有人領先於可能發生的任何型別的犯罪。跟蹤和了解可能發生的任何事情都非常有益,尤其是在發生入室盜竊的可能性時。
“機器學習在娛樂行業具有巨大的潛力,並且已經被應用於 Netflix、Google Play 和 Amazon Prime 等流媒體服務。這些網站使用類似神經網路的演算法來消除低質量的播放和緩衝,為您提供來自網際網路服務提供商的頂級質量。人工智慧驅動的演算法也有助於媒體制作。新聞報道已經由人工智慧算法制作,以提高效率”[25]。
我們今天用於日常生活需求的幾乎所有型別的平臺都實現了人工智慧。這些演算法正在理解和學習我們喜歡用哪些型別的電影或音樂來娛樂自己。不僅如此,人工智慧技術還被用於幫助提高質量以及其他可能讓我們保持聯絡的功能。
“人工智慧技術正在加速自動駕駛汽車的發展。事實上,根據 Google 的研究,人工智慧驅動的汽車在安全方面已經超過了人類駕駛員,因為人工智慧使自動駕駛汽車能夠立即適應不斷變化的條件並從新情況中學習。目前,大多數汽車製造商都在尋求將人工智慧技術整合到未來的產品中。”
自動駕駛汽車是任何型別汽車的未來。我們希望相信汽車能夠像非常安全的駕駛員一樣表現出色。利用人工智慧來保持領先地位,將使我們更接近真正的自動駕駛汽車。預計安全機制將為我們工作,以便我們可以更安全地到達目的地。
“像 Uber 這樣的拼車服務利用人工智慧來確定將使用者運送到他們想要的位置所需的時間。這項技術讓使用者瞭解有關其駕駛員何時到達、他們何時到達目的地以及食物送達需要多長時間的詳細資訊。Uber 還使用人工智慧根據他們認為您願意支付的價格來設定價格。據《獨立報》報道,Uber 還使用人工智慧來確定乘客是否在駕駛員接受接送之前喝醉了。它透過分析和比較步行速度和打字模式等因素來做到這一點。”
拼車應用越來越先進。這些應用正在使用人工智慧技術來了解食物的成本以及食物到達需要多長時間。人工智慧技術也正在瞭解我們來自的氛圍。人工智慧能夠理解清醒者與醉酒者的比較可能看起來非常不同尋常。事實上,這可能有助於 Uber 司機為可能出現的任何情況做好更好的準備,因為客戶可能處於醉酒狀態。
“銀行正在使用人工智慧傳送移動通知以幫助檢測欺詐。例如,如果您的帳戶出現異常大額交易,您可能會在手機上收到警告通知,或者如果購買發生在遠離您家的地方,您的帳戶可能會被標記,並且您可能會被要求確認購買。人工智慧透過分析您的典型每日交易來識別消費行為中的異常模式,從而實現這些警告。”
人工智慧幫助改善我們的日常生活需求。銀行業是確保我們的資金“安全”的最明顯形式之一。由於銀行業肩負著巨大的責任,因此他們會對客戶的賬戶進行更嚴格的分析是顯而易見的。這將創造銀行與其客戶之間更好的信任。
“人工智慧驅動的系統經過良好訓練,可以執行人類完成的每項任務。使用人工智慧技術可以確保出色的工作效率。人工智慧機器糾正人為錯誤並提供最佳的業務成果。此外,基於人工智慧的機器可以全天候執行。例如,人工智慧聊天機器人可以隨時理解和響應客戶查詢。因此,人工智慧聊天助手將提高公司的銷售額。”
擁有人工智慧技術的最大好處之一是它可以提高工作效率。人類完成的工作在很大程度上取決於工作者的表現。某些天可能與其他天不同。人工智慧技術是為了創造一個更輕鬆、更高效的工作環境。人工智慧機器將創造一個更一致的工作環境。擁有創造更少錯誤並瞭解客戶可能出現的各種需求的機器將只幫助企業蓬勃發展。
“使用機器學習 (ML) 演算法(如深度學習和神經網路),系統可以高效地執行重複性任務。此外,ML 驅動的系統消除了每次學習新事物都需要編寫程式碼的必要性。機器學習可以最佳化機器的能力,從資訊中學習新模式。因此,與人類相比,人工智慧機器可以降低運營成本。例如,人工智慧機器可以重複執行任務,而不會出現任何中斷或結果變化。”
機器學習專注於讓系統更有效地工作。創造這種型別的環境將幫助企業節省大量資金。這有助於企業節省資金,並將更多注意力集中在解決其他問題上。但是,這對員工來說可能是一個潛在的威脅。
“人工智慧用於訓練機器比人類更有效地執行工作。人工智慧系統可以執行關鍵任務,解決複雜的解決方案並獲得準確的結果。由於這種優勢,人工智慧在醫療保健領域得到了廣泛應用。機器人可以準確地檢測危及生命的疾病,還可以進行手術以挽救人類生命。此外,醫療保健領域的人工智慧對放射學和數字諮詢應用產生了重大影響。”
人工智慧技術有可能創造一個非常穩定的工作環境。人工智慧機器可以完成的任務更加具體。為了進一步解釋這個概念,人工智慧機器可能比標準員工工作得更好。準確性尤其可能更高,因為重複性任務的學習和部署速度更快。不僅如此,人工智慧機器還創造了一個更有競爭力的環境。眾所周知,人工智慧機器超越了員工的準確性。
“透過上述 AI 的優勢,事實證明 AI 驅動的機器可以自動化端到端的工作流程。AI 機器可以安全地處理給定的資料。此外,它還可以提供對資料的寶貴見解。接下來,將為企業開啟新的機遇。因此,總體業務績效將得到提升。許多研究人員一致認為,AI 可以完成人類執行的所有任務。例如,AI 聊天機器人可以在客戶訪問 Web 門戶時為他們提供幫助,AI 驅動的機器可以自動化所有行業的業務流程,AI 機器人可以表現出人類的情感,如快樂/悲傷和愛/恨。”
顯然,憑藉上述所有優勢,AI 技術在許多與業務相關的功能中繼續蓬勃發展。商業專業人士正竭盡全力獲取任何型別的 AI,以成功執行業務可能需要的任何需求。企業將繼續加深對 AI 的理解,以便將其實施到自己的業務中。AI 是否有可能接管一切呢?
“隨著 AI 採用的不斷增加,人工智慧技術的擔憂也以多種方式在人類中日益上升。例如,濫用 AI 驅動的自主武器會導致大規模殺傷。這意味著,如果自主武器落入壞人之手,它們就會與人類作對。因此,AI 是未來對人類的主要威脅。”
AI 技術可能在任何特定時刻或時間落入壞人之手。人們利用 AI 創造了更高效的工作環境,但人們懷有惡意意圖的可能性也非常高。AI 技術的力量是無限的,可能非常危險。
“超級智慧機器可以收集、儲存和處理大量使用者資料。但缺點是,這些機器可以使用您的個人資訊而無需您的許可。AI 將為社會帶來許多好處,但不幸的是,它先進的功能也用於執行有害或危險的行為。”
當我們考慮一種更先進的 AI 時,那就是人工智慧超級智慧 (ASI)。這種型別的智慧可能造成很多問題,尤其是如果它不是以正確的方式建立的。看到如此先進的技術觸手可及令人沮喪,但懷有不良意圖的人可以創造出一個充滿可怕事件的世界。ASI 太強大,無法探索,根據許多來源,時間線並不確定,但它可能不會太遠。
“AI 是市場上的一個趨勢。專家估計,AI 未來將消滅大約 75% 的就業崗位。大多數行業已經使用 AI 機器、裝置和應用程式。因此,用 AI 機器取代人類會導致全球失業。在 AI 使用的驅動下,人力資源不得不很大程度上依賴機器。因此,員工失去了創造力。”
解釋的最大好處之一是 AI 技術可以執行比標準人類高得多的工作。與工作相關的準確性、效率和其他因素都處於更高水平。這會導致失業率上升,並造成更多困難。競爭已經非常激烈,新增一臺幾乎完美的機器來完成工作只會增加失業率。
“人工智慧顯然正在透過其應用程式自動化大多數任務來讓人類變得懶惰。人類有可能沉迷於這些先進技術,這可能會給後代造成問題。AI 機器無法跳出框框思考。它們只能做它們被程式設計的事情。雖然它們可以更容易、更快地完成任務,但 AI 機器無法觸及人類智慧的力量。AI 裝置可以儲存大量資訊並繪製模式,但無法在沒有最少人工干預的情況下將資料與要求匹配。”面臨 AI 進步的最大挑戰之一是創造一個更加懶惰的世界。人們越來越習慣於讓機器為他們做他們想做的事情。這種懶惰的創造使得創造力不那麼重要。與其專注於在特定任務上變得更好,不如讓一臺智慧機器來做某人的工作要容易得多。這使得懶惰變得更加明顯,而任何跳出框框的思考都已消失。人們非常有必要在完全適應這種懶惰的生活方式之前,先了解 AI 機器。
“開發 AI 系統需要鉅額成本,因為它們是複雜的機器。接下來,維護 AI 機器也需要鉅額成本。AI 機器中的內建軟體程式必須進行升級才能提供最佳結果。在這種情況下,如果系統出現任何嚴重故障,那麼程式碼恢復過程可能會浪費時間和成本。”
AI 非常昂貴,但這並沒有阻止公司將這些機器適應其業務需求。隨著技術的不斷發展,未來的道路只會越來越好。隨著更多實施的進行,AI 技術會隨著時間的推移變得越來越便宜。與任何型別的技術一樣,這可能是一項永遠改變企業運作方式的技術。
- ↑ a b c d Benko, A.,和 Lányi, C. S. (2009)。人工智慧史。在資訊科學與技術百科全書,第二版(第 1759-1762 頁)。IGI Global。
- ↑ Flasiński, M. (2016)。人工智慧史。在人工智慧導論(第 3-13 頁)。Springer,Cham。
- ↑ a b c Maity, S. (2019 年 9 月 20 日)。確定人工智慧在培訓和發展實踐演變中的機會。於 2021 年 4 月 18 日從 https://www.emerald.com/insight/content/doi/10.1108/JMD-03-2019-0069/full/html 檢索。
- ↑ Hassani, H.,Silva, E.,Unger, S.,TajMazinani, M.,和 Mac Feely, S. (2020 年 4 月 12 日)。人工智慧 (AI) 或智慧增強 (IA):未來是什麼?於 2021 年 4 月 18 日從 https://www.mdpi.com/2673-2688/1/2/8/html 檢索。
- ↑ a b c Gurkaynak, G.,Yilmaz, I.,和 Haksever, G. (2016)。抑制人工智慧:人類的危險。計算機法律與安全評論,32(5),749-758。doi:10.1016/j.clsr.2016.05.003
- ↑ Bostrom, N. (1998 年 1 月 1 日)。Nick Bostrom,超級智慧還有多久?- PhilPapers。於 2021 年 4 月 18 日從 https://philpapers.org/rec/BOSHLB 檢索。
- ↑ Larose, D. T. (2004)。資料中發現知識。doi:10.1002/0471687545
- ↑ E. Qualman。社會經濟學。Knopf 青少年讀物,紐約,2009 年。
- ↑ P. Gloor、J. Krauss、S. Nann、K. Fischbach 和 D. Schoder。網路科學 2.0:透過語義社交網路分析識別趨勢。第 4 卷,第 215-222 頁,2009 年 8 月。
- ↑ Metz, C. (2019 年 11 月 11 日)。我們向 AI 系統教授所有內容,包括我們的偏見。於 2021 年 4 月 18 日從 https://people.eou.edu/soctech/files/2020/12/BERTNYT.pdf 檢索。
- ↑ a b c Leslie, D. (2019)。瞭解人工智慧倫理和安全:公共部門 AI 系統負責任設計和實施指南。艾倫·圖靈研究所。 https://doi.org/10.5281/zenodo.3240529
- ↑ 人工智慧推動自動駕駛汽車發展。 (2020 年 1 月 30 日)。從 IHS Markit 檢索:https://ihsmarkit.com/research-analysis/artificial-intelligence-driving-autonomous-vehicle-development.html
- ↑ Lynberg, M. (無日期)。自動駕駛汽車的安全。從國家公路交通安全管理局檢索:https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety。
- ↑ Bogost, I. (2018 年 3 月 20 日). 你可以起訴自動駕駛汽車嗎?檢索自大西洋月刊:https://www.theatlantic.com/technology/archive/2018/03/can-you-sue-a-robocar/556007/。
- ↑ Pietsch, B. (2021 年 4 月 18 日). 無人駕駛特斯拉汽車發生車禍造成兩人死亡,官員稱。檢索自紐約時報:https://www.nytimes.com/2021/04/18/business/tesla-fatal-crash-texas.html。
- ↑ 美軍採用“道德”人工智慧準則 https://www.dw.com/en/us-military-adopts-ethical-ai-guidelines/a-52517260
- ↑ a b 武裝機器人、自主武器和倫理問題 http://centredelas.org/actualitat/armed-robots-autonomous-weapons-and-ethical-issues/?lang=en。
- ↑ Vanian, J. (2016 年 3 月 25 日). 聯邦政府認為到 2020 年無人機銷量將激增。檢索自財富雜誌:http://fortune.com/2016/03/25/federal-governmen-drone-sales-soar/
- ↑ a b 研究人員正在開發用於外骨骼的人工智慧。(2021 年 3 月 22 日) 檢索自 Paint Square:https://www.paintsquare.com/news/?fuseaction=view&id=23530
- ↑ 布萊克·利珀因使用假肢參加奧運會資格賽而敗訴。(2020 年 10 月 26 日)美聯社從 ESPN 檢索:https://www.espn.com/olympics/story/_/id/30196806/runner-blake-leeper-loses-appeal-use-prosthetic-legs-olympics-qualifying-bid
- ↑ a b 沃爾茨,E. (2020 年 8 月 28 日) 埃隆·馬斯克宣佈 Neuralink 在將我們的大腦與人工智慧同步方面取得進展。檢索自 IEEE Spectrum:https://spectrum.ieee.org/the-human-os/biomedical/devices/elon-musk-neuralink-advance-brains-ai
- ↑ 曼利,J. (2020 年 11 月 26 日). 重啟死亡者的倫理問題。檢索自 Wired:https://www.wired.com/story/ethics-reviving-dead-with-tech./
- ↑ Ivanschitz, R. 和 Korn, D. (2017). 數字轉型和就業:為每個人構建雲。邁阿密大學泛美法評論,49(1),41-50。檢索自 2021 年 4 月 30 日:https://www.jstor.org/stable/26788342
- ↑ a b c Etzioni, A. 和 Etzioni, O. (2017). 人工智慧應該被監管嗎?科學與技術問題,33(4),32-36。檢索自 2021 年 4 月 30 日:http://www.jstor.org/stable/44577330
- ↑ a b 凱文·加德納(未註明日期)。人工智慧改善日常生活的方式。Digitalist 雜誌。 https://www.digitalistmag.com/improving-lives/2019/05/28/6-ways-ai-improves-daily-life-06198539/。