資訊科技與倫理/隱私與人工智慧
隱私問題是人工智慧領域資料資源開發和利用的主要威脅之一
概述 物聯網 (IoT) 是一個已經存在了一段時間的概念。然而,近年來,它已成為一個被認為重要且廣泛傳播的概念。該術語的起源可以追溯到十多年前,歸因於麻省理工學院 (MIT) 自動識別實驗室在聯網射頻識別 (RFID) 基礎設施方面的研究 [1]。如今,物聯網裝置無處不在,幾乎存在於每個部門和行業。根據目前的預測,到 2025 年,物聯網裝置預計將達到 750 億臺 [2]。
物聯網發展迅速,其發展速度遠超其裝置相關的安全和隱私標準。許多人沒有意識到他們日常使用的一些工具是物聯網裝置,也不清楚持續傳輸的個人和私人資訊的數量,使用者隱私是一個備受關注和擔憂的領域。這項技術為賦予公民權利、使政府透明化以及擴大資訊獲取提供了巨大潛力。但是,為此,感測器(包括嵌入移動裝置的感測器)會收集關於公民生活的各種資料,然後對這些資料進行彙總、分析、處理、融合和挖掘,以提取有用的資訊 [13]。然而,人們正在採取各種措施來改善使用者隱私,包括 VPN、傳輸層安全和 DNS 安全擴充套件。對物聯網時代隱私的擔憂導致許多人認為隱私和物聯網本質上是不相容的。例如,美國公民自由聯盟 (ACLU) 表達了對物聯網侵蝕人們對自己生活的控制能力的擔憂,並表示:“我們根本無法預測這些巨大的力量將如何使用,這些力量不成比例地累積在尋求經濟利益的企業和渴望更多控制的政府手中。大資料和物聯網可能會讓我們更難控制自己的生活,因為我們變得越來越透明,而強大的企業和政府機構則變得越來越不透明。” [3]。
人們一直在嘗試幫助維護隱私,例如 1974 年的隱私法;然而,這些法律提供的特權不足以應對現代社會。物聯網裝置將帶來新的挑戰和灰色地帶,以超越政府法律,這些法律是幾十年前無法想象的。英國政府試圖透過宣佈其在實施智慧計量計劃時將遵循正式的“隱私設計”原則來回應這些日益增長的對隱私和智慧技術的擔憂,該計劃將用智慧電錶取代傳統的電錶。這個過程可以更準確地跟蹤和管理能源使用;然而,英國計算機協會對這些原則是否真正得到實施表示懷疑。此外,荷蘭議會拒絕了類似的智慧計量計劃,其決定基於對隱私的擔憂,儘管該計劃後來經過修訂並獲得透過 [4]。
概述
AI 對工業領域的供應鏈管理有益,這些工具幫助優化了資產庫存、原材料需求、能源消耗和人員配置。此外,AI 是工業 4.0 的重要貢獻者,工業 4.0 是製造技術中當前的自動化和資料交換趨勢,它將產生智慧產業。這些智慧系統依賴於大資料、雲計算和機器學習才能發揮作用。然而,資料越多,安全問題就越大,洩露或隱私洩露可能會導致嚴重的後果 [5]。
製造商已經透過各種方式使用 AI 來提高效率、質量和供應鏈管理,雖然前景廣闊,但這些計劃並非沒有擔憂。包含地點、供應商組織詳細資訊和個人員工詳細資訊 AI 支援的預測質量和產量工具使用經過訓練的演算法來理解每個生產過程,可以幫助揭示製造生產中損失的隱藏原因 [6]。不幸的是,如果這些原因的詳細資訊洩露,如果這些原因是由於錯誤或疏忽造成的,則可能會損害企業的聲譽。預測性維護系統依賴於 AI、機器學習和數學演算法來預測後續故障,並提醒員工執行有針對性的維護程式以防止故障。保護這些操作至關重要,因為訪問控制機制的破壞可能會更改維護活動的計劃,導致智慧元件丟失,或者在最糟糕的情況下,由於故障導致人員傷亡。射頻識別 (RFID) 系統已在製造行業中得到有效利用,用於跟蹤和識別零件。最近的研究發展到改進 RFID 網路規劃 (RNP),該規劃使用人工神經網路 (ANN) 模型、計算 AI 演算法和 RNP 的數學模型來開發 AI 正規化,以最佳化 RFID 網路覆蓋範圍 [7]。然而,這項技術也存在一定的風險。例如,如果這些演算法處理的位置和資產詳細資訊遭到破壞,可能會給處理有害和關鍵物質的核能和科學研究工廠帶來災難性的後果。使用裝置讀數、渦輪機溫度、加工週期和 AI 進行的持續資料傳輸和處理,使自動化和簡化特定製造部門變得方便且經濟高效。然而,生產要素關鍵詳細資訊的洩露會導致智慧財產權的侵犯。
概述 由於技術的進步,人工智慧 (AI) 在醫療保健中的應用不斷增加。醫療系統中的人工智慧有可能推動人類的效能。然而,構建道德人工智慧的安全性、公平性和問責制對於將人工智慧應用於醫療領域至關重要。隨著人工智慧被整合到醫療領域,需要解決許多風險和挑戰。從保護患者資料隱私、人工智慧造成的患者傷害、人工智慧和醫生的診斷許可權等,不勝列舉。 [8]。 這些問題的解決方案很複雜,可能需要立法者透過解決人工智慧問題的政策。其他一些解決方案可能需要對醫生進行再教育,以適應人工智慧系統。
人工智慧的發展增多讓政策制定者擔憂,因為隱私法律和法規已經過時,無法解決人工智慧在醫療保健中的能力以及它對健康資訊的安全性風險。人工智慧需要大量資料才能執行其功能,而這些資料容易受到漏洞和駭客的攻擊,他們一直在積極尋找任何發現的漏洞。資料收集引發了關於患者在將資訊用於研究、開發和商業目的時的隱私和同意問題,以及人工智慧系統生成的資料的智慧財產權歸屬問題。 [9]。 此外,人們也擔心臨床醫生與人工智慧之間的互動。如果人工智慧和醫生的診斷出現分歧,會做出什麼選擇?誰有權否決對方的意見?人工智慧系統會完全取代醫生嗎?這些都是政策制定者需要儘快解決的問題,以避免重複侵犯患者的權利和隱私。
人工智慧容易出現偏見,這些偏見可能來自不同的開發領域。其中之一是人工智慧系統如何調整到特定配置,以及演算法如何被程式設計為輸出特定結果,同時忽略其他變數。 [10]。 另一個可能將偏見引入人工智慧的領域是使用帶有偏見的資料。資料解釋和評估的方式可能會受到偏見的影響,從而影響人工智慧的有效性和功能。政府可以透過為公共和私營部門之間共享資料提供指導,以獲取更通用的資料來涵蓋人口群體,從而解決這些問題。政府應該透過制定全面的法規和政策來解決這些偏見,讓使用人工智慧系統的公司承擔責任。
概述
隨著數字時代的不斷發展,人臉識別已成為組織安全、執法和商業用途的普遍做法。然而,資訊科技領域的專業人士需要負責實施道德規範,以提高大眾的生活質量,而不是僅僅提高公共和私營部門的監控潛力。鑑於人臉識別在執法中具有合理的使用場景,因此可以合理地主張支援其在提高社會生活質量方面的服務。但要實現這一點,公共和私營部門之間需要制定標準操作程式,以防止人臉識別技術侵犯公民權利。
當使用機器學習來識別測試資料集上的模式時,人臉識別的準確性會提高,這意味著人臉識別的有效性取決於用於開發它的資料。這自然導致了對負責開發人臉識別技術的公司道德底線的評估,因為他們將人臉識別技術作為一種盈利手段。根據用於開發人臉識別技術的資料集的不同,人臉識別可能會存在偏見,當遇到不同的種族、民族和年齡群體時,輸出結果可能不一致。另一個風險因素是執行生物識別過程的伺服器的信譽度。 [11]。 考慮到所有這些因素,這項技術的開發是不可避免的,因此風險緩解比完全限制其使用更可取。
IT 行業的道德準則支援探索新技術以改善生活質量的想法。但同時,它也要求行業干預,以確保人臉識別技術的實施不會侵犯大眾的隱私權。隨著越來越多的資料隱私法規推動私營組織選擇退出為商業目的收集資料,也可以對人臉識別提出同樣的建議。 [12]。 然而,在公眾場合,這種監管變得具有挑戰性且無效,因為個人會受到執法部門的影片監控,以及在進入具有專有政策的私人商業場所時。對於這些不可避免的情況,最道德的做法是在以下目標下緩解風險因素,將生活質量置於資料變現之上
- 減少人臉識別輸出中的偏見
- 對處理生物識別資料的組織進行合法強制執行安全資料處理實踐。
- 監管幹預,以避免侵犯未被懷疑犯罪的守法公民的隱私權。
概述
社會正在快速邁向一個完全由可再生能源驅動的未來,而許多發達國家的重點之一是透過淘汰內燃汽車,用全電動汽車來減少碳足跡。這些電動汽車具有獨特的優勢,可以減少排放,並利用其先進的人工智慧能力來實現自動駕駛體驗,使道路更加安全。但是,為了讓系統按照設計執行,需要使用車輛的感測器收集大量資訊,包括關於周圍環境和其他車輛的資訊、路線歷史、個人之間的對話以及透過電話系統連線時的手機通訊。由於這些車輛需要持續收集和傳輸資料,因此資料隱私和保護的優先順序至關重要,以防止身份和財務欺詐。以下部分將討論自動駕駛汽車的隱私侵犯能力以及與自動駕駛汽車資料收集相關的潛在隱私風險。
收集的最關鍵的資料(尤其是與其他資訊結合起來時)是車主和任何乘客的唯一識別符號,這些識別符號可以與現實世界中的身份關聯。該車輛可能需要儲存這些資訊,以驗證個人進行授權使用以及眾多可定製的安全、舒適和娛樂設定。基於選定的偏好和其他在使用過程中收集的資訊,例如個人之間的對話以及透過電話系統連線時的手機通訊,可以高度確定地識別身份。 [13].
與車輛乘客相關的定位資料通常會被收集並用於路線規劃、回憶之前的目的地、識別興趣點以及收集即時交通狀況。車輛使用的聚合過程,即收集個體且多樣化的位置資料並將其組合以預測未來的目的地和移動,可以識別乘客可能希望對公眾保密的細節。例如,檢查路線和時間戳的模式可能會提供有關乘客的詳細資訊,例如他們居住和工作的地方以及他們經常訪問的任何地點。從個人角度來看,這可能會暴露個人的家庭、政治、職業、宗教和性取向方面的聯絡,同時也引發了關於跟蹤者和虐待者的安全問題。從商業角度來看,這些位置資料可以幫助識別購物偏好和消費習慣,為廣告商提供寶貴的營銷見解,類似於瀏覽器 cookie 的使用方式。這種做法的意義包括透過資訊娛樂系統提供定製廣告,專門將車輛引導到贊助的路線,以便根據收集的資料將乘客暴露給特定公司或目的地[14]。
感測器資訊
[edit | edit source]自動駕駛汽車透過感測器學習和執行,這些感測器不斷吸收和儲存有關周圍環境的資料,包括其他車輛和行人,從而引發潛在的隱私問題。這些人並沒有同意任何資料收集或使用,並且通常不知道這項技術對他們生活隱私的影響。雖然其他侵犯隱私的技術允許使用者選擇加入,但自動駕駛汽車系統無法向遇到的每個行人和駕駛員提供通知和選擇。人們擔心這些感測器可能會被政府秘密用於記錄車輛範圍內每個人的物理移動,從而能夠找到任何地方的任何人,並導致人們擔心政治異見人士可能成為目標。這個問題因 GDPR 等監管保護法律而加劇,尤其是“被遺忘權”,在這些情況下無法授予[15]。購買這些新車的人們另一個擔憂是保險公司將如何使用系統收集的資料。保險公司辯稱,收集有關個人駕駛員、他們的駕駛習慣和他們即時情況感知的特定資訊可以為他們提供準確的風險分析。然而,有些人擔心這些資料可能會被用在按需付費的模式中,在這種模式下,保險費將根據駕駛表現來確定。
隱私緩解措施
[edit | edit source]歐盟透過 GDPR 正在引領隱私立法,旨在加強整個歐盟的資料保護,並限制資料向其境外的轉移。值得注意的是,GDPR 要求從設計階段開始就將資料保護納入其中,這被稱為“隱私設計”。使用隱私設計方法並將此優先順序嵌入系統中,可以透過擴充套件保護其自身來保護個人的隱私。為了實現隱私設計,已提出八項設計策略[16]
- 使用按需選擇收集、匿名化和假名化設計模式,最大程度地減少收集的資料。
- 使用加密隱藏資料,包括在傳輸中和靜止狀態下的加密,以及模糊網路流量。
- 透過分散式方法儘可能地分離個人資料。
- 使用 k-匿名性系列技術或差分隱私,在最高級別和儘可能少的細節上聚合資料。
- 透過擁有足夠的介面和檢測潛在的隱私洩露來透明地告知系統的主題。
- 使用使用者中心的身份管理和端到端加密等技術,讓使用者控制資料。
- 透過適當的訪問控制機制執行隱私政策。
- 透過記錄和審計來證明對隱私政策的合規性。
資料採集中的隱私風險
[edit | edit source]透過廣泛使用各種型別的資料收集設施,智慧系統不僅可以透過指紋、心跳和其他生理特徵識別身份,還可以根據不同人的行為偏好自動調整照明、房間溫度、音樂,甚至睡眠時間。鍛鍊條件、飲食習慣和身體體徵的變化決定了身體是否健康。然而,使用這些智慧技術意味著智慧系統掌握了大量個人資訊,甚至比你自己更瞭解自己。如果使用得當,這些資料可以提高人類生活質量,但如果私密資訊被非法用於商業目的,則會導致隱私侵犯。
雲計算中的隱私風險
[edit | edit source]由於雲計算技術易於使用,它提供了一種基於共享池的模型。許多公司和政府機構開始將資料儲存在雲中。在雲中儲存私密資訊後,該資訊會受到各種威脅和攻擊。由於人工智慧系統對計算能力有很高的要求,雲計算已成為許多人工智慧應用中的主要架構。因此,在開發此類智慧應用程式時,雲隱私保護也是人們需要考慮的問題。
知識提取中的隱私風險
[edit | edit source]從資料提取到知識是人工智慧的主要功能。知識提取工具變得越來越強大。許多看似無關的資料片段可以被整合以識別個人行為特徵,甚至是性格特徵。例如,透過結合網站瀏覽歷史記錄、聊天內容、購物流程和其他型別的記錄資料,可以描繪一個人的行為軌跡,分析個人喜好和行為習慣,並進一步預測消費者的潛在需求。公司可以為消費者提供必要的先期資訊、產品或服務。然而,這些個性化的定製過程伴隨著個人隱私的發現和暴露。如何在技術應用的同時規範隱私保護是一個需要與技術應用同時考慮的問題。
References
[1] 人工智慧——工業 4.0 的驅動力。 (無日期)。Seebo。2021 年 4 月 29 日檢索,https://www.seebo.com/industrial-ai/
[2] Azizi, A. (2019)。工業 4.0 中的人工智慧技術應用。施普林格
[3] Bryson, J. & Winfield, A. (2017)。人工智慧和自主系統倫理設計的標準化。計算機,50(5),116-119。https://doi.org/10.1109/MC.2017.154
[4] Cara Bloom, Joshua Tan, Javed Ramjohn 和 Lujo Bauer。2017 年。自動駕駛汽車和資料收集:聯網自動駕駛汽車的隱私感知。第十三屆可用性隱私和安全研討會 (SOUPS 2017)。加州聖克拉拉,357-375。[5] Erkin, Z.、Franz, M.、Guajardo, J.、Katzenbeisser, S.、Lagendijk, I. 和 Toft, T. (2009)。隱私保護人臉識別。施普林格連結。https://link.springer.com/chapter/10.1007/978-3-642-03168-7_14
[6] Froomkin, A. M.、Kerr, I. R. 和 Pineau, J. (2018)。當人工智慧勝過醫生時:過度依賴機器學習的侵權風險以及如何(不)應對。SSRN 電子期刊,1-67。doi:10.2139/ssrn.3114347
[7] G. Danezis、J. Domingo-Ferrer、M. Hansen、J. Hoepman、D. Metayer、R. Tirtea 和 S. Schiffner。隱私和資料保護設計——從政策到工程。ENISA,2014 年。
[8] Gomes De Andrade, N. N.、Martin, A. 和 Monteleone, S. (2013 年 6 月)。“為了更好地看到你,親愛的”:線上社交網路中的面部識別和隱私。IEEE Xplore。https://ieeexplore.ieee.org/abstract/document/6461872
[9] Horwitz, Lauren (2019) 物聯網的未來迷你指南:蓬勃發展的物聯網市場持續增長。Cisco.com,7 月 19 日,於 2021 年 5 月 3 日檢索https://www.cisco.com/c/en/us/solutions/internet-of-things/future-of-iot.html
[10] 物聯網。 (2021 年 5 月 3 日)。在維基百科中。[物聯網]
[11] Lloyd, K. (2018)。人工智慧系統中的偏差放大。ArXiv,abs/1809.07842。
[12] Maple, Carsten. (2017) 物聯網中的安全和隱私。網路政策雜誌,2(2) 155-184
[13] Price II,William Nicholson,醫療系統中的 人工智慧:四種潛在轉型角色(2019 年 2 月 25 日)。21 耶魯大學法律與科技特刊 122(2019),18 耶魯大學健康政策法與倫理特刊 122(2019),密歇根大學公共法研究論文第 631 號,可在 SSRN 獲取:https://ssrn.com/abstract=3341692
[14] Such,J. M. (2017)。隱私和自主系統。在第二十六屆國際人工智慧聯合會議論文集,IJCAI-17 中(第 4761-4767 頁)https://doi.org/10.24963/ijcai.2017/663
[15] Wortmann,F.,Flüchter,K. 物聯網。企業資訊系統工程 57, 221–224 (2015)。https://doi.org/10.1007/s12599-015-0383-3
16 Ziegeldorf H, Jan. (2013) 物聯網中的隱私:威脅和挑戰。安全與通訊網路,7(12) 2728-2742。新加坡。檢索於 2021 年 4 月 29 日 https://link.springer.com/content/pdf/10.1007/978-981-13-2640-0.pdf。 https://doi.org/10.1007/978-981-13-2640-0