資訊科技與倫理/生成式人工智慧倫理
“生成式人工智慧”一詞指的是一種人工智慧,它可以生成以前不存在的新資料或內容,例如寫作、圖片、音樂和電影。它使用機器學習技術,通常是深度神經網路,來發現它所訓練資料的模式和結構,然後使用這些知識來建立新內容。據報道,生成式人工智慧領域的研發正在快速發展,該領域在藝術、音樂、遊戲和設計等領域都有應用。
最初,人工智慧研究主要集中在基於規則的系統上,這些系統可以根據一組指定的標準做出決策。這些系統基本上是靜態的,並且只能部分地學習新資訊並適應新資訊。
隨著 20 世紀 80 年代和 90 年代神經網路的出現,人工智慧取得了長足的進步。神經網路旨在模仿人腦的組織結構,由相互連線的節點組成,這些節點可以並行處理輸入。這為生成式人工智慧提供了更多可能性,並使決策過程更加動態和複雜。
在 20 世紀 90 年代後期和 21 世紀初,出現了一波新的 AI 研究浪潮,重點是貝葉斯推理和機率建模。這種方法允許開發更復雜的生成模型,這些模型可以透過使用部分或錯誤資料來解釋不確定性。
近年來,深度學習技術的引入引發了生成式人工智慧領域的革命。深度學習模型能夠從大量資料中學習,並且能夠建立新的結果,這些結果與人類做出的決策完全相同。這為藝術創作開闢了新的可能性,包括創作音樂、藝術品,甚至完整的書籍。
機器學習演算法被應用於一個迷人的領域,稱為“生成式人工智慧”,它能夠生成原創內容,包括文字、影像和影片。與傳統的機器學習專注於分類和預測任務不同,生成式人工智慧專注於創造性任務。生成式人工智慧是一個令人著迷的研究領域,具有巨大的潛力,可以應用於各種領域,包括藝術和娛樂、藥物開發以及科學研究。隨著我們繼續開發更復雜和更先進的生成式人工智慧模型和方法,我們可以期待在未來幾年看到更加顯著和革命性的應用出現。[1]
從根本上說,生成式人工智慧涉及使用海量資料集訓練模型,以生成新穎、逼真的內容,這些內容與源資料非常相似。兩種最常見的生成式人工智慧型別是變分自動編碼器 (VAE) 和生成對抗網路 (GAN)。
GAN 由生成器和鑑別器組成,這兩個神經網路協同工作以生成新內容。生成器基於隨機輸入生成新資料,而鑑別器則評估樣本的真實性。這兩個網路透過一種稱為對抗訓練的方法同時進行訓練,其中生成器試圖欺騙鑑別器,而鑑別器則旨在正確地分類真實資料和生成資料。最終,生成器獲得了生成真實且類似於輸入資料的輸出的能力。
另一方面,VAE 是一種能夠對資料進行編碼和解碼的神經網路。它們學習將傳入資料減少到一個潛在空間,即一個低維表示,並使用這種表示來生成新的資料樣本。VAE 被訓練用來最佳化一個損失函式,該函式衡量輸出資料與輸入資料的匹配程度。另一方面,VAE 是一種能夠對資料進行編碼和解碼的神經網路。它們學習將傳入資料減少到一個潛在空間,即一個低維表示,並使用這種表示來生成新的資料樣本。VAE 被訓練用來最佳化一個損失函式,該函式衡量輸出資料與輸入資料的匹配程度。
GAN 和 VAE 分別可以用來建立影像、影片和文字。它們需要大量高質量資料才能有效地執行,並且訓練過程可能很耗時且計算量大。[2]
生成式人工智慧通常使用一組資料進行訓練。根據這種訓練,生成式人工智慧會調整許多引數,直到它們產生與訓練資料類似的輸出。為了使生成的輸出更接近訓練資料中可能出現的內容,模型必須學習資料中的模式,因為它擁有的引數少於訓練資料。生成式人工智慧被劃分為幾個不同的節點層,每個節點的值都依賴於其他節點。節點的值透過使用連線的數值權重在層之間發生變化。這些層可以分為三類:輸入層、輸出層和任何數量的中間層,統稱為“隱藏層”。[3]
例如,為了訓練 GAN,隨機種子被饋送到生成器的輸入層,然後生成器在層之間傳遞值以生成輸出。一組這些輸出以及一組訓練資料被傳遞到鑑別器網路,然後鑑別器網路試圖對輸入是來自訓練資料還是來自生成的輸出進行分類。根據鑑別器的結果,網路中的權重會進行調整,以便生成網路的未來輸出更難以讓鑑別器區分與訓練資料。
為了生成內容,生成式人工智慧(Generative AI)會從一組小的隨機資料開始,並將這組資料輸入到輸入層。輸入層的值會透過不同的層進行傳遞,並受到節點間權重的影響,這與訓練過程類似。在輸出層,結果會顯示給使用者。[需要引用]
由於節點之間的權重是由訓練資料決定的,因此生成式人工智慧處理資料的確切方式可能會根據資料集的大小、資料集中資料的種類以及訓練過程而有所不同。這也意味著生成式人工智慧可能難以生成其訓練資料中代表性不足或完全缺失的輸出。
與其他型別的人工智慧一樣,生成式人工智慧能夠產生有偏見的結果。這源於許多問題。機構、文化、歷史和/或社會中存在的系統性偏見會影響訓練資料。這些偏見隨後會反映在模型中的統計和計算偏見中。固有的個人偏見也存在,這些偏見會影響訓練資料、模型的設計以及其輸出的使用。
可以在生成式人工智慧輸出結果的整個生命週期中減少或消除這些偏見。在初始階段,設計人員需要避免使用有偏見的訓練資料。訓練資料中的偏見可能包括以下問題:由於資料採集方式導致的訓練資料不具有代表性(例如,從網站上抓取的資料不具有所有人類或甚至其他網際網路使用者的代表性);系統性和歷史性偏見,例如種族與郵政編碼之間的相關性;以及其他偏見。此外,設計團隊應該擁有各種不同型別的成員,以減少決策過程中的偏見。在設計階段,應該進行分析,以識別偏見來源以及緩解偏見的計劃。這些計劃應該不斷進行評估,以確保緩解策略有效。在部署後,應該不斷監控模型,以確保偏見最小化。如有必要,應該對模型進行重新訓練或退役。[4]
生成式人工智慧的主要影響之一是版權模糊。這意味著新的創意內容的權利歸屬尚不清楚。生成式人工智慧模型通常使用來自各種網站、社交媒體、維基百科以及 Reddit 等大型討論中心的各種內容的大型資料集進行訓練。由於其中包含受版權保護的材料,因此它可用於表達使用者提出的各種摘要式回覆。這可能會導致內容所有者侵犯版權。
關於這種情況一直存在著許多爭論。受版權保護的內容(文字和圖片)被用於訓練資料集中,這為生成式人工智慧提供了顯著高模量的語言。這裡的問題是:是否應該允許此類受版權保護的材料用於訓練生成式人工智慧的資料集?答案仍然不確定,但從原始內容所有者的角度來看,這是違反了版權法。[5]
隨著生成式人工智慧的快速發展,它很有可能在某些階段導致失業。當人工智慧自動化某些任務或活動時,可能會出現這種情況,從而取代人工。例如,在任何 B2B 機構中,營銷團隊負責建立需要傳送給客戶的電子郵件營銷活動。工作包括製作電子郵件模板、起草營銷活動電子郵件以及獲取這些電子郵件營銷活動的開啟率和點選率報告。因此,如果人工智慧能夠建立電子郵件營銷活動的內容,那麼負責建立這些電子郵件營銷活動的人員將被取代。
另一個例子是,如果人工智慧自動化了客戶服務任務,那麼通常在呼叫中心提供面對面客戶服務的員工將被取代。一些人工智慧模式能夠生成程式碼。因此,它也會危及開發人員的角色,因為人工智慧通常能夠以有效的方式編寫程式碼,這意味著需要更少的時間並且可以最大限度地減少錯誤。[6]
生成式人工智慧通常會對某些問題給出不確定的回答,例如可能、不確定等等。由於生成式人工智慧使用機器學習模組,因此它不能保證 100% 的準確性。在某些情況下,這種人工智慧對某些問題的答案高度不正確。不僅如此,在某些情況下,它在解決某些數學邏輯方面也慘敗。除此之外,在象棋等熱門遊戲中,儘管計算機已知比人類更擅長下棋,但人工智慧也確實會做出毫無意義的不規則移動。這最終會導致透過此類聊天機器人傳播虛假資訊的風險增加。[7]
生成式人工智慧可以被濫用,透過建立模仿人類聲音的聲音來誘使人們落入其陷阱。他們可以使用此功能傳送網路釣魚電子郵件或詐騙電話。例如,攻擊者可以使用此工具聲稱他來自該組織的 IT 部門,並最終說服使用者分享其登入 ID 和密碼,從而獲得對其系統的訪問許可權。因此,生成式人工智慧會導致社會工程學攻擊。[8]
隨著生成式人工智慧不斷改進,人們對可能出現的未來社會影響表示擔憂。
隨著各種人工智慧技術的不斷改進和發展,軟體工程師的就業市場出現了一個全新的市場。被稱為“機器人軟體工程環境”的環境致力於透過整合人工智慧技術和人類創造力和工作來最大限度地提高效率。隨著機器人軟體工程環境變得越來越普遍,將需要由軟體工程師團隊來負責開發和維護這種新的人工智慧軟體。此外,在將人工智慧部署到公共使用後,仍然需要由人類軟體工程師來監督、維護和更新它。
在人工智慧和其他機器學習系統的設計和開發方面,[9] 軟體工程師可以涉足許多研究/工作領域。在這個人工智慧軟體設計領域,工程師應該監控人工智慧軟體的任何潛在效能下降,探索新的和更有效的架構風格和模式,以及探索更好地分析和處理超大型資料集的方法。一個軟體工程師編碼團隊還需要對他們選擇的人工智慧的工作原理非常熟悉;這包括瞭解它使用的演算法、它擁有的 NLP 工具以及它如何幫助自動化他們的日常工作。為了將人類創新領域最好地融入人工智慧軟體的效率和精度,軟體工程師必須為人類和機器之間有益的協作創新新的方法。這些方法需要改進通訊技術,以確保無縫協作,共同實現最終目標。[10]
學校
[edit | edit source]教師和學生將開始將生成式人工智慧,如 ChatGPT,應用到他們的教育環境中。現在已經有一些例子表明教師利用人工智慧生成教學計劃、考試、論文題目等。隨著時間的推移,這項技術只會不斷改進,教師將能夠自動化他們的許多工。 “ChatGPT 成功通過了研究生級別的商業和法律考試,甚至通過了部分醫學執照評估(Hammer,2023 年),這導致了一些建議,建議教育工作者取消這些型別的評估,而採用需要更多批判性思維的評估。”[11] 在另一方面,學生已經開始利用生成式人工智慧來減少他們實際需要做的繁瑣工作。 ChatGPT 等模型已成為生成提綱、論文和程式碼的關鍵工具,然後可以修改以供學生提交。重要的是要記住,並非所有這些模型生成的內容都 100% 正確;因此,學生應該注意不要依賴這些模型;相反,他們應該將生成式人工智慧用作教育工具,而不是作弊工具。 技術也一直在出現,幫助檢測人工智慧提交的內容,以防止學生利用生成式人工智慧;例如,GPTZero 專為檢測 ChatGPT 生成的內容而設計。
截至目前,大多數學術機構已經禁止使用生成式人工智慧,例如 ChatGPT;然而,這只是一個暫時的解決方案。隨著這項技術不斷改進並變得更容易獲得,禁止使用將會變得幾乎不可能。學術機構應該開始專注於教授新一代如何將生成式人工智慧等工具與他們自己的知識和創造力結合使用。正如網際網路改變了學生和教師之間互動的方式一樣,生成式人工智慧和其他人工智慧技術將在未來產生重大影響。
藥物開發
[edit | edit source]生成式人工智慧系統可以根據氨基酸序列或分子表示系統進行訓練,例如 AlphaFold,用於蛋白質結構預測和藥物發現。這些模型已成為改變小分子和大分子設計、最佳化和合成的潛力巨大的工具。在更大範圍內,有可能加速開發過程。[12]
該過程的階段如下
- 階段 1:存在人工智慧輔助目標選擇和驗證。
- 階段 2:分子設計和化學合成
- 階段 3:生物學評估、臨床開發和上市後監測
- 階段 4:人工智慧和深度生成模型識別出幾個成功的臨床前和臨床分子[13]
VAE 和 GAN 的作用
[edit | edit source]VAE 的作用是透過最大化似然函式的下界來最佳化資料的對數似然。另一方面,GAN 學習測量所謂的“有效”分子和“合成”分子之間的差異。但是,這些方法大多需要大量資料。目前,高質量資料的缺乏,以及向其中新增資料的有效資料共享過程,使得資料和諧在藥物發現過程中起著至關重要的作用。
當前的人工智慧技術由於可解釋性不足或有限、可訪問性不足以及缺乏高質量資料,限制了藥物開發的應用並影響了其效能。
法律職業
[edit | edit source]ChatGPT 以及其他服務,有可能對整個法律職業產生重大影響,而不僅僅是對學生產生影響。ChatGPT 本身表示,雖然難以預測,但有理由相信,生成式人工智慧系統對法律服務的改造將很快發生,最早可能在 5 到 10 年內。[14] 就學生而言,ChatGPT 表示,他們應該意識到,這些系統有可能取代人類執行這些工作。重點應該放在瞭解這些系統的工作原理以及如何使用它們。[15]
ChatGPT 在法律職業中能夠做很多事情。例如,在起草方面,它證明了它能夠起草高階法律檔案,包括不帶偏見的索賠函和訴狀。這些草案展示了 ChatGPT 根據簡單的輸入事實來詳細闡述和改進內容的能力。除了其他事情之外,ChatGPT 能夠識別法律策略、生成支援案件的骨架論點、預測潛在的辯護等等。
儘管具有這些能力,但 ChatGPT 缺乏像合格律師一樣進行法律研究和分析的能力。預計像 WestLaw 和 Lexis 這樣的法律資料庫將採用生成式人工智慧。但是,應該注意的是,ChatGPT 目前缺乏像合格律師一樣進行法律研究和分析的能力。[16]
參考文獻
[edit | edit source]- ↑ "什麼是生成式人工智慧?你需要了解的一切". 企業人工智慧. 檢索於 2023-04-25.
- ↑ "生成式人工智慧:你需要了解的一切 | Murf AI". murf.ai. 檢索於 2023-04-25.
- ↑ "什麼是神經網路?| IBM". www.ibm.com. 檢索於 2023-04-25.
- ↑ Schwartz, Reva; Vassilev, Apostol; Greene, Kristen; Perine, Lori; Burt, Andrew; Hall, Patrick (2022-03-15). "邁向人工智慧偏見識別和管理標準" (PDF). 蓋瑟斯堡,馬里蘭州. doi:10.6028/nist.sp.1270.
{{cite journal}}: Cite journal requires|journal=(help) - ↑ "生成式 AI 的法律和倫理影響". CMSWire.com. Retrieved 2023-04-25.
- ↑ "生成式 AI 倫理:六大主要問題". research.aimultiple.com. Retrieved 2023-04-25.
- ↑ Kruger, Michelle Lee, Lukas. "生成式 AI 的風險和倫理考量". Passle. Retrieved 2023-04-25.
- ↑ "生成式 AI 倫理:六大主要問題". research.aimultiple.com. Retrieved 2023-04-25.
- ↑ Giray, Görkem (2021-10). "從軟體工程角度看機器學習系統工程:現狀和挑戰". Journal of Systems and Software. 180: 111031. doi:10.1016/j.jss.2021.111031.
{{cite journal}}: Check date values in:|date=(help) - ↑ HEIL, JOE W. (2010-12). "應對軟體增長和快速發展軟體技術的挑戰". Naval Engineers Journal. 122 (4): 45–58. doi:10.1111/j.1559-3584.2010.00279.x. ISSN 0028-1425.
{{cite journal}}: Check date values in:|date=(help) - ↑ Lim, Weng Marc; Gunasekara, Asanka; Pallant, Jessica Leigh; Pallant, Jason Ian; Pechenkina, Ekaterina (2023-07-01). "生成式 AI 和教育的未來:諸神黃昏還是改革?來自管理教育者的悖論視角". The International Journal of Management Education. 21 (2): 100790. doi:10.1016/j.ijme.2023.100790. ISSN 1472-8117.
- ↑ "藥物發現", Wikipedia, 2023-04-17, retrieved 2023-04-25
- ↑ Zeng, Xiangxiang; Wang, Fei; Luo, Yuan; Kang, Seung-gu; Tang, Jian; Lightstone, Felice C.; Fang, Evandro F.; Cornell, Wendy; Nussinov, Ruth; Cheng, Feixiong (2022-12). "深度生成式分子設計重塑藥物發現". Cell Reports Medicine. 3 (12): 100794. doi:10.1016/j.xcrm.2022.100794. PMC 9797947. PMID 36306797.
{{cite journal}}: Check date values in:|date=(help)CS1 maint: PMC format (link) - ↑ Macey-Dare, Rupert (2023). "ChatGPT 和生成式 AI 系統如何徹底改變法律服務和法律職業". SSRN Electronic Journal. doi:10.2139/ssrn.4366749. ISSN 1556-5068.
- ↑ "ChatGPT", Wikipedia, 2023-04-24, retrieved 2023-04-25
- ↑ Iu, Kwan Yuen; Wong, Vanessa Man-Yi (2023). "OpenAI 的 ChatGPT:訴訟律師的終結?". SSRN Electronic Journal. doi:10.2139/ssrn.4339839. ISSN 1556-5068.