用於社會變革的聊天機器人/Jan Voelkel/思考
語言模型(LM),特別是像 ChatGPT 這樣的高階系統,具有模擬類人對話和論證的潛力。最近的研究,例如 Ashwini Ashokkumar 的研究表明,模擬干預可以像人類一樣影響這些模型,儘管方差較小。這個概念可以擴充套件到模擬複雜的論證過程,以理解和潛在地影響信仰體系。
找到事實和令人信服的證據的能力正是建立共識和放大令人信服的分歧所需要的,無論持不同意見的人群有多小。聊天機器人可以透過始終評估它自己被說服的程度(或無法被勸服)來進行調解。
這個想法是利用 LM 來模擬不同觀點或信仰體系之間的互動,類似於 AlphaGo 透過與自己對弈來提高圍棋水平的方式。這涉及到 LM 以給定人的身份進行論證,批判和分析另一個人提供的資源,然後評估其“思維”是否以及如何改變。
在這個設想的框架中,LLM 將扮演不同個體的角色,每個人都有自己獨特的信念、知識和經驗。它將參與討論,批判性地分析和回應另一個人或 LLM 中另一個模擬角色提供的資源和論點。這種互動的關鍵方面是 LLM 以誠意進行論證和批判的能力,反映了人類信仰體系和思維過程的複雜性。
該過程涉及測量 LLM 是否以及如何根據提出的論點改變其立場。這種測量不僅僅是跟蹤觀點的變化,而是理解這種變化的根本原因。它認為什麼樣的證據或推理是令人信服的?它如何平衡相互矛盾的資訊?在這種情況下,LLM 充當衡量論證力量和說服力的標準。
這個概念的一個關鍵應用是在建立共識和放大令人信服的分歧方面,特別是在規模較小或邊緣化的群體中。透過模擬各種不同的觀點和論點,LLM 可以識別哪些觀點最有可能在不同的信仰體系中產生共鳴。這種方法可以突出顯示共同點和一致意見,而這些共同點和一致意見在標準討論中可能不太明顯。
此外,聊天機器人可以充當調解人,不斷評估它被提出的論點說服的程度。這種持續評估有助於識別論點中的偏見、謬誤或強點。LLM 的調解不是要站在哪一邊,而是要理解不同論點的有效性和信念變化的動力。
- 神經檢索:LM 利用先進的神經檢索技術來訪問廣泛的資訊和觀點,促進對各種論證策略的全面理解。
- 模擬動力學:LM 參與模擬對話,它採用不同的角色,每個角色代表不同的信仰體系。這類似於 AlphaGo 等人工智慧系統中的自我對弈機制。
這項技術的潛在應用非常廣泛,包括
- 衝突解決:透過理解最有效的論點,LM 可以透過尋找共同點來幫助解決衝突。
- 教育:這些模擬可以用來教授批判性思維和論證分析。
- 社會政治理解:模擬可以幫助理解社會中信念形成和變化的動態。
雖然這個概念很有前景,但它也引發了有關操縱、隱私和此類技術可能被濫用的重要道德問題。確保負責任的使用至關重要。
需要進一步的研究來增強 LM 在該領域的能力,特別是在準確模擬個人信仰體系和確保此類技術的道德應用方面。