跳轉到內容

Lentis/Ellie、微軟Kinect和心理治療

來自Wikibooks,開放世界的開放書籍

Ellie是SimSensei系統中使用的虛擬心理治療師的名稱,SimSensei系統是一個人工智慧 (AI)平臺,可以採訪病人並收集資訊以評估他們的心理健康。Ellie正在由多所大學的研究人員開發,並由國防高階研究計劃局 (DARPA)資助,以調查自動化技術在心理篩查中的潛力。該系統目前正在阿富汗國民警衛隊成員中進行測試,研究人員認為它可能對軍隊的心理健康護理特別有幫助,因為它可以提高可及性並消除與精神障礙相關的汙名。由於Ellie僅在少數小群體中進行了測試,因此很少有人對Ellie表達強烈意見。然而,對其他醫療診斷工具和自動化技術出現的研究所表明,有些人可能會反對使用Ellie,因為他們擔心該系統的準確性或心理學家工作保障問題。

心理治療中診斷的歷史

[編輯 | 編輯原始碼]

精神障礙的臨床診斷在過去一個世紀中發生了重大變化。在20世紀初,心理學和精神病學這些新興領域的專業人士主要集中在描述精神疾病的可觀察症狀。弗洛伊德在20世紀20年代和30年代改變了這一領域,他研究了精神障礙的原因;然而,這一時期的心理治療師往往將精神疾病歸因於故意的不良行為或個人弱點。直到1980年,《精神障礙診斷與統計手冊》(DSM-III)第三版出版,精神障礙才開始被視為可以透過循證科學體系進行診斷的合法醫學狀況。[1]

Ellie和SimSensei專案

[編輯 | 編輯原始碼]

Ellie由卡內基梅隆大學的計算機科學家路易斯-菲利普·莫倫西和南加州大學創意技術研究所 (ICT) 的心理學家阿爾伯特“斯基普”裡佐以及其他工作人員開發。SimSensei專案由DARPA資助,旨在研究一個基於虛擬人的心理治療系統。這最終可能建立一個平臺,幫助診斷軍人和其家人中的創傷後應激障礙 (PTSD)、焦慮和抑鬱。[2] 美國退伍軍人事務部估計,PTSD和抑鬱症影響著很大一部分退伍軍人,包括五分之一的伊拉克和阿富汗戰爭老兵。現役和退役軍人擔心接受這些疾病的專業幫助會帶來汙名,並導致職業和個人後果。[3] 開發人員目前將Ellie歸類為臨床決策支援工具,可以補充問卷或用作篩選平臺。

定量觀察

[編輯 | 編輯原始碼]

該系統使用連線到人工智慧虛擬人 (Ellie) 的微軟Kinect平臺,可以與病人即時互動並進行15到20分鐘的訪談。Ellie收集並處理大量資訊。[4] 使用一個整合平臺,以每秒30次的速度跟蹤60種不同的動作,Ellie分析語音模式、姿勢和麵部表情。痛苦、抑鬱和其他心理障礙與某些行為和言語模式有關。綜合測量結果,以提供注意力和坐立不安、迴避目光接觸、說話頻率、微笑水平和上半身活動的指標,這些指標為SimSensei的反應提供資訊。在一項初步研究中,科學家僅使用Ellie收集的資訊就能區分抑鬱症患者和非抑鬱症患者。[5]

病人互動

[編輯 | 編輯原始碼]

Ellie使用機器學習和自然語言處理演算法來積極傾聽並融入模仿和肢體語言線索。當前版本的Ellie被程式設計為在對話暫停後以預先錄製的音訊片段進行回應,這將可能的回應數量限制在約100個單詞或短語和20個非語言動作。這些按其在系統中的功能進行分類:訪談問題、中性回饋語(“嗯哼”)、積極同理心、消極同理心、驚訝反應和繼續提示。[4] Ellie被程式設計為建立融洽關係,然後在對話中提出心理問題。開發人員認為,Ellie可以提高提問(和解讀)的一致性,防止病人感到被評判,並避免人為評估者引入的偏差。[5]

Ellie對披露意願的影響

[編輯 | 編輯原始碼]

患者可能不會透露非法、不道德或帶有汙名的個人資訊。但是,治療師需要這些資訊才能有效地治療患者。與人工控制系統相比,Ellie已被發現可以提高患者的披露意願[6]。研究表明,有兩個因素可以提高患者的披露意願:融洽關係和匿名性。

融洽關係

[編輯 | 編輯原始碼]

融洽關係是指各方相互理解並良好溝通的關係。建立融洽關係後,患者會向治療師透露更多個人細節,例如恐懼和焦慮[7]。在溝透過程中,言語和非言語行為會影響融洽關係。例如,提出後續問題的訪談者比不提出後續問題的訪談者獲得更多披露[8]。肢體語言,如面部表情、手勢、眼神和姿勢,也會影響融洽關係[9]。這可以解釋為什麼當被無法表達言語線索和肢體語言的非人類代理人訪談時,融洽關係會受到影響,人們會感到缺乏聯絡[10]

Ellie的功能仍在評估中。使用者認為Ellie的傾聽能力不如人工控制的介面,這很可能是因為人工智慧技術尚不成熟。但是,使用者給Ellie和麵對面訪談者的融洽關係評分相似[5]

恐怖谷

[編輯 | 編輯原始碼]
恐怖谷

1970年,森政弘提出,隨著機器人變得越來越像人類,在它們看起來完全像人類之前,有一個點會讓人感到恐懼[11]。他將這種效應稱為恐怖谷效應。試圖使艾莉看起來栩栩如生可能會導致她陷入恐怖谷,使與使用者的建立聯絡變得更加困難,並降低他們透露資訊的意願。

匿名性

[編輯 | 編輯原始碼]

如果一個人感到自己的身份受到保護,就會出現匿名性。當透過電腦接受採訪時,患者感到更加匿名,並且比面對面接受採訪時透露的資訊更多[12]。艾莉可以幫助患者感到更加匿名,因為她允許他們在沒有人類精神科醫生在場的情況下做出回應。然而,如果艾莉收集的資料與精神科醫生共享,患者可能會感到匿名性降低。研究人員正在調查是否知道他們特定的回應將來會被檢視會改變患者透露資訊的意願。初步結果表明,即使參與者知道他們的回應稍後會被檢視,他們透露的資訊也比面對面訪談中多[13]

來自當前計算機輔助心理治療的經驗教訓

[編輯 | 編輯原始碼]

艾莉目前尚未在臨床上使用,也不打算作為診斷或治療的主要方法,因此基於Skype的心理治療和遠端醫療諮詢可能會表明對未來計算機輔助診斷方法的反應和可能的益處。線上系統提供了更廣泛的護理人員選擇,允許患者可以接受針對非常具體的患者群體和需求的護理。[14]與艾莉一樣,患者可以在他們自己的時間表和舒適的環境中與治療師互動,從而提高便利性。在醫療資源稀缺的地區,遠端醫療大大降低了獲取醫療服務的障礙。由於從業人員需要持有患者所在州的執照,因此許多人改為宣傳他們的服務為精神分析或人生指導——類似地,艾莉也很難進行分類。[15]如果患者處於緊急危險之中,遠端諮詢師需要有辦法為患者在當地獲得幫助。[14]與艾莉一樣,建立融洽關係和透露個人資訊的舒適度可能會受到系統技術能力和缺乏面對面互動的影響。

關於診斷準確性的爭論

[編輯 | 編輯原始碼]

儘管一些研究量化了心理診斷的一致性,但許多研究表明診斷仍然不夠可靠。研究人員認為,許多因素導致診斷不一致,包括精神病學命名法的不足、臨床醫生的偏見以及完成全面評估的時間不足[16]。DSM-III 的主要作者羅伯特·斯皮策認為,心理學領域仍然面臨著可靠性問題[17]

對計算機輔助診斷的支援

[編輯 | 編輯原始碼]

一些研究人員認為,計算機可以幫助提高精神病學和醫學診斷的可靠性。在一項對 163 項研究的回顧中,Grove 等人發現機械預測技術(使用統計資料和資料處理演算法)的準確率平均比臨床判斷(使用來自非正式和主觀方法的資料,如個人訪談)高 10%[18]。其他人認為,像艾莉這樣的計算機系統將使臨床醫生不太容易受到錨定效應的影響,這種現象會導致他們在做出診斷時過分重視最初觀察到的症狀[19][20]。其他計算機輔助診斷工具的開發人員認為,它們將提高診斷準確性,因為計算機可以儲存比單個人類臨床醫生所能知道的資訊多得多。IBM 的科學家正在將人工智慧平臺沃森應用於醫學診斷,他們斷言醫生每週需要花費多達 160 個小時才能瞭解最新的醫學文獻[21]。作為一個包含大量最新醫學資訊的客觀系統,計算機演算法可以透過為臨床醫生提供需要考慮的鑑別診斷來提高診斷準確性。

反對意見

[編輯 | 編輯原始碼]

由於艾莉只在少數幾個地方進行了測試,因此很少有心理學家對該系統足夠熟悉以表達反對意見。然而,1895 年 X 射線成像發明後提出的反對意見可以為可能的投訴提供洞察。雖然大多數人認為 X 射線會改善手術,但耶魯大學的一位醫學教授擔心醫生會過分依賴 X 射線影像,而忽略人類判斷和與患者面對面互動的重要性。“我們必須回到訓練學生觀察患者,而不僅僅是資料庫,”他說道[22]。如關於床邊禮儀章節所述,阿布拉罕·維爾吉斯博士表達了類似的觀點。他批評過分依賴資料,並認為人際接觸和個人互動對於防止醫生忽視簡單的診斷以及建立患者與醫生之間的信任至關重要。最後,計算機科學家約瑟夫·魏澤鮑姆認為計算機輔助心理治療是不道德和沒有人性的,因為計算機不可能提供真正的溫暖和同理心[23]。魏澤鮑姆在建立伊麗莎(最早的粗糙的計算機治療師模擬器之一)後發表了這些評論。艾莉和 SimSensei 系統可能比早期技術提供更全面的資訊,並且更像人類,但耶魯大學教授、維爾吉斯和魏澤鮑姆等人的批評意見可能仍然存在。

對白領就業市場的影響

[編輯 | 編輯原始碼]

製造業和其他藍領行業的工作崗位在最近幾十年中佔美國就業總量的比例越來越小,一些分析人士將這一趨勢歸因於自動化技術的增長[24]。自 20 世紀 70 年代以來,製造業產出增長而製造業就業崗位減少的事實支援了這樣一個觀點,即自動化技術透過提供更高的生產力取代了某些藍領工作中的人類。現在,白領工作也可能受到 SimSensei 等技術進步的威脅。儘管艾莉的當前版本仍然需要人類來分析收集到的資料並做出診斷,但艾莉實際上消除了他們需要花費在進行面對面訪談上的時間,從而減少了為相同數量的患者提供服務的所需心理學家數量。計算機系統也開始具備記者、律師和其他白領工作者的能力。例如,敘事科學開發了一個系統,當給定離散的資料和事即時,該系統可以生成體育文章[25],並且計算機演算法正被用於篩選數千份法律檔案,並僅選擇與律師審查案件最相關的檔案[26]。在對人工智慧、網際網路、資訊科技和其他領域專家的調查中,皮尤研究中心發現,在 1896 名受訪者中,“絕大多數”人認為機器人和人工智慧將在 2025 年“滲透到日常生活的各個領域”。然而,大約一半的專家認為,機器人和人工智慧的興起將導致白領行業規模的整體縮小,因為它們會取代人類勞動,而另一半專家則認為,機器人和人工智慧將透過創造更多全新的工作型別導致白領工作崗位的淨增加[27]

Ellie 的設計目的並非完全取代心理診斷中的人為因素,儘管其他醫療技術和人機介面可能證明 Ellie 對心理護理的潛在影響。目前的研究仍在探索基於計算機的方法如何影響患者的資訊披露,以及 Ellie 如何減少與尋求心理健康護理相關的汙名化。需要更多的研究來了解轉向日益自動化的診斷技術帶來的風險,以及 Ellie 將如何影響患者的匿名感和披露意願,如果個人的結果隨後被透露給精神科醫生。Ellie 提出了一個關鍵問題:技術如何影響患者和臨床醫生的醫療保健?

參考文獻

[編輯 | 編輯原始碼]
  1. Mayes, R. & Horwitz, A.V. (2005)。DSM‐III 與精神疾病分類的革命。行為科學史雜誌,41(3),249-267。https://facultystaff.richmond.edu/~bmayes/pdf/dsmiii.pdf
  2. 南加州大學創意技術研究所。(2014)。SimSensei。http://ict.usc.edu/prototypes/simsensei/
  3. 蘭德公司。(2008)。五分之一的伊拉克和阿富汗退伍軍人患有 PTSD 或重度抑鬱症。http://www.rand.org/news/press/2008/04/17.html
  4. a b Morbini, F.,DeVault, D.,Georgila, K.,Artstein, R.,Traum, D. & Morency, L.-P. (2014)。SimSensei 資訊亭中對話處理的演示。第 15 屆話語與對話特別興趣小組年會論文集(第 254 頁)。http://www.aclweb.org/anthology/W/W14/W14-43.pdf#page=274
  5. a b c DeVault, D.,Artstein, R.,Benn, G.,Dey, T.,Fast, E.,Gainer, A. … (2014)。SimSensei 資訊亭:用於醫療保健決策支援的虛擬人類訪談員。2014 年國際自主代理和多代理系統會議論文集(第 1061-1068 頁)。國際自主代理和多代理系統基金會。http://dl.acm.org/citation.cfm?id=2617415
  6. Lucas, G. M.,Gratch, J.,King, A. & Morency, L. P. (2014)。這只是一臺電腦:虛擬人類增加了披露意願。人機行為,37,94-100。
  7. Dijkstra, W. (1987)。訪談風格與受訪者行為 調查訪談的實驗研究。社會學方法與研究,16(2),309-334。doi:10.1177/0049124187016002006
  8. Miller, L. C.,Berg, J. H. & Archer, R. L. (1983)。開啟者:引發親密自我披露的個人。人格與社會心理學雜誌,44(6),1234-1244。doi:10.1037/0022-3514.44.6.1234
  9. Hall, J. A.,Harrigan, J. A. & Rosenthal, R. (1995)。臨床醫生-患者互動中的非語言行為。應用與預防心理學,4(1),21-37。doi:10.1016/S0962-1849(05)80049-6
  10. Gratch, J.,Kang, S.-H. & Wang, N. (2013)。利用社交代理探索融洽感和情感共鳴理論。在 J. Gratch & S. Marsella(編),自然與人工製品中的社會情感(第 181-197 頁)。牛津大學出版社。http://www.oxfordscholarship.com/view/10.1093/acprof:oso/9780195387643.001.0001/acprof-9780195387643-chapter-12
  11. 恐怖谷 - IEEE 光譜。(未註明日期)。http://spectrum.ieee.org/automaton/robotics/humanoids/the-uncanny-valley
  12. Weisband, S. & Kiesler, S. (1996)。電腦表格上的自我披露:元分析和意義。在人機互動系統SIGCHI會議論文集(第 3-10 頁)。紐約,紐約,美國:ACM。doi:10.1145/238386.238387
  13. G. Lucas,個人交流(電子郵件),2014 年 12 月 4 日。
  14. a b Novotney, A. (2011)。遠端醫療的新重點。http://www.apa.org/monitor/2011/06/telehealth.aspx
  15. Burgo, J. (2014)。Skype 心理學家。http://www.theatlantic.com/health/archive/2014/12/the-skype-psychologist/382910/
  16. Aboraya, A.,Rankin, E.,France, C.,El-Missiry, A. & John, C. (2006)。精神科診斷的可靠性重訪:臨床醫生提高精神科診斷可靠性的指南。精神病學(Edgmont),3(1),41。
  17. Spiegel, Alix (2005 年 1 月 3 日)。疾病詞典。紐約客。
  18. Grove, W. M.,Zald, D. H.,Lebow, B. S.,Snitz, B. E. & Nelson, C. (2000)。臨床預測與機械預測:薈萃分析。心理評估,12(1),19。
  19. Cohn, Jonathan。(2013 年 2 月 20 日)。機器人將為您服務。大西洋月刊。
  20. Ofri, Danielle。(2012 年 7 月 19 日)。陷入診斷陷阱。紐約時報。檢索自http://well.blogs.nytimes.com/
  21. Kohn, Martin。(2013 年 4 月 22 日)。創新者聊天:沃森如何改變醫療保健。大西洋月刊。
  22. Blume, S. S. (1992)。洞察力和行業:論醫學技術變革的動力。麻省理工學院出版社。
  23. Ford, B. D. (1994)。計算機輔助治療中的倫理和專業問題。人機行為,9(4),387-400。
  24. Sherk, J. (2010)。技術解釋了製造業就業崗位下降的原因。傳統基金會。檢索自 www.heritage.org。
  25. Fassler, Joe。(2012 年 4 月 12 日)。敘事科學的計算機能否取代付費作家?大西洋月刊。
  26. Palazzolo, Joe。(2012 年 6 月 18 日)。為什麼要聘請律師?電腦更便宜。華爾街日報。
  27. (2014 年 8 月 6 日)。2025 年的數字生活:人工智慧、機器人技術和未來的工作。皮尤研究中心。檢索自 www.pewinternet.org。
華夏公益教科書