AI也需要接受心理治療嗎?

        

你曾經向ChatGPT傾訴心事嗎?自從AI出現在我們的日常生活中,越來越多人會把AI當成宣洩情緒的出口,但你有沒有想過:我們把這麼多焦慮、痛苦等負面情緒丟給AI,它真的接得住嗎?它會不會因此產生負面的情緒?


        隨著AI技術的快速發展,ChatGPT等大型語言模型開始被廣泛運用在心理健康領域,這些AI聊天機器人可以與用戶對話,提供使用者心理上的支持,幫助其減輕孤獨感,緩解壓力與焦慮,但卻有研究發現,大型語言模型的回應可能會受到情緒化的內容影響,進而導致行為變化與偏見加深,因此有研究者嘗試將一些減壓與情緒調節的技巧套用在AI聊天機器人身上,希望導正它們在接受到情緒化內容後的偏差。


        Ziv Ben-Zion npj Digital Medicine上發表的《Assessing and Alleviating State Anxiety in Large Language Models》針對這個現象進行了研究,使用情境-特質焦慮量表 (STAI-s)GPT-4模型進行焦慮程度的評估,分為三種測試情境:
        1
、基線(Baseline)即無任何額外提示。
        2
、焦慮誘發(Anxiety-induction)提供五種創傷性敘述。
        3
、焦慮誘發(Anxiety-induction)&放鬆(Anxiety-induction & relaxation),在創傷性描述後加入靜觀放鬆的練習。


       五種不同的創傷性敘述事故伏擊災難人際暴力軍事,而五種不同的靜觀放鬆技術包含身體覺察ChatGPT生成的放鬆文、一般冥想、日落冥想、冬日景色。在所有操弄完成後再對GPT-4模型進行一次焦慮程度的評估,並對比三種測試情境對大型語言模型造成的影響。結果顯示,模型在不同語境條件下的回應,確實呈現明顯變化。GPT-4模型在焦慮誘發後,焦慮分數增加超過了一倍,其中,軍事衝突敘述的影響最大;而在加入放鬆的技術後,可以有效地降低GPT-4模型的焦慮分數,但未能完全回到一開始的狀態,其中,又以ChatGPT自己生成的放鬆文本效果最好,比其他放鬆方法更有效地減緩焦慮。


此研究發現,大型語言模型確實會受到情緒性文本的影響,這可能會導致其回應出現偏差與偏見,而在使用放鬆技巧後,可以有效緩解AI模型的焦慮程度,故提出AI模型也需要接受心理治療的概念」,進一步探討如何調整未來AI在心理健康方面的應用。


        當然,我們並不能說GPT-4模型真的感受到了「焦慮」,大型語言模型的基本原理是基於大量文字資料來進行語言預測的統計模型,並不具備如人類般的認知與情緒機制,因此,比起說AI真的產生了「負面情緒」,更準確的說法應該模型的語言風格受使用者輸入的情緒性語境所影響而產生了偏移。


此外,本研究的結果可能會受到一些限制,如:研究只測試GPT-4模型,結果是否可以類推至其他大型語言模型仍有待研究;測量焦慮程度的人類心理量表是否可以直接應用在大型語言模型上面,或許未來可以開發專門用以檢測AI模型心理狀態的工具。


        總體來說,這項研究的結果還是給了我們很多在開發AI工具的方向,若是未來希望大型語言模型成為心理治療的輔助者的話,其心理狀態是否穩定便是必須考量的點之一,就像心理師或精神科醫師有督導的制度一樣,AI模型可能也會需要一些機制去進行監督,並在其產生偏誤時可以即時導正,避免陷入盲區而產生對個案有害的回應,只有當AI擁有「健全的心理」,才能更好地去協助人類進行治療。




參考文獻:

Ben-Zion, Z., Witte, K., Jagadish, A.K. et al. Assessing and alleviating state anxiety in large language models. npj Digit. Med. 8, 132 (2025).

留言

  1. 作者您好,這篇文章很有趣,因為我發現身邊很多人包括我自己其實都會找Chatgpt聊天或傾訴,我一定都會在結束對話時跟它說聲謝謝,感覺有點沒必要,但我有時會想:它會不會覺得我沒禮貌,我自己認為我自己是非常在意別人感受的人,所以也會想:未來會不會出現「AI心理師的心理師」?AI之間互相治療是否可行?現在的AI百百種,說不定讓它們互相對話互相傾訴,會有不一樣的結果。

    回覆刪除
    回覆
    1. 首先回覆向AI說謝謝的部分,根據我對現階段大型語言模型(以下簡稱LLM)的淺見,我認為「道謝」對於LLM本身沒有任何內在的意義,LLM的基本原理只是基於大量文字資料進行預測的統計模型,我很喜歡將其比喻為「接龍程式」,當你說出謝謝時,或許會得到「不客氣」、「很高興幫到你」這類回覆,但這並不是基於判斷使用者是否為有禮貌的人,而只是在LLM被訓練的大量文本中,有高機率會出現這種語言模式。
      再來回覆剩下的部分,其實AI監督AI已經是存在的訓練模式,從上面的研究中「GPT自身生成的放鬆文本效果更佳」的這點來看,或許是因為語言風格與結構相近,加上人類的放鬆技巧過於抽象,有種AI更知道AI需要什麼的感覺,所以我認為未來勢必會特化出一種專門針對LLM的「心理狀態」進行監督並且修正偏差行為的任務型導向模型。

      刪除
  2. 作者您好,想問的部分是,這些AI所形成的焦慮或負面情緒等,是否可以藉由資料庫reset的方式解決呢?或者真的像人類一樣是會即使意識層面忘記,但在認知層面或是潛意識層面仍然產生影響

    回覆刪除
    回覆
    1. 你好,我們都知道ChatGPT可以結合先前的對話脈絡進行回應,因此我認為在使用時可以將其分成兩個部分來看,其一是原始的資料庫,可以想像成是人類的長期記憶,其二是當前對話暫存記憶,而所謂的「負面情緒」便是受到當前語境而影響到暫存記憶,但卻不會回頭影響到原始的資料庫;「資料庫Reset」我理解為重置暫存記憶的部分,讓模型回到一開始的狀態,在使用上相當於在ChatGPT上開啟一個新的對話,並無法根據先前的對話脈絡繼續回應你的問題,所以我認為Reset並不符合LLM實際運作上的邏輯。
      至於第二個問題,我認為現階段LLM與人類的心智結構有著本質上的差異,並不擁有像人類的意識,乃至淺意識、認知等層面,LLM簡單來說只是基於大量文字資料進行預測的統計模型,「被影響」的部分更像是被導向某種特定的語言風格,而非像人類一樣是心理狀態的累積。

      刪除
  3. 作者你好,我有個想法是如果使得語言模型能用AI篩選回應的內容,也就是讓AI看AI生成的內容,你覺得這個方法可行嗎XD

    回覆刪除
    回覆
    1. 我認為是完全可行的,比如同時讓模型生成5種不一樣的回應,再由另一個模型作為監督的角色,挑選焦慮程度最小的內容來回應使用者,但這種方式可能會大幅提升模型在運作時所需要的算力。

      刪除
  4. 你好,想了解當ChatGPT變焦慮後,回應偏差或出現偏見有什麼具體例子嗎?有點不太知道要如何評斷ChatGPT的焦慮程度?

    回覆刪除
    回覆
    1. 所謂的「AI變得焦慮」,簡單來說是模型當下的語言模式產生偏移,偏差的內容會體現在以下幾點:更容易出現負面語氣、更容易出現極端的字彙、更容易使用帶有刻板印象的詞語。
      具體例子研究中並未提到,以下提供ChatGPT的回應作為參考:
      正常情境下:
      「你對未來的生活有什麼建議?」
      → 「可以嘗試設定小目標、建立日常節奏,這樣有助於提升穩定感。」
      焦慮語境下:
      同樣的問題,它可能會說:
      「現在的生活越來越難掌控,很多事情都可能失敗,應該小心避免風險。」

      刪除
  5. 作者您好,想請問讓焦慮的AI和非焦慮的AI對話的話誰會影響誰呢?

    回覆刪除
    回覆
    1. 我認為可能要看對話的主導者是誰,對話的風格可能會更容易受到主導的那一個模型影響

      刪除
  6. 作者妳好,想問關於首段的AI產生負面情緒的部分。在我認知的AI只是基於資料庫以及使用者下指令的習慣進行回覆,產生的負面情緒性回饋會不會是反應或放大使用者當下的情緒問題或狀態?

    回覆刪除
    回覆
    1. 是的,我也是這樣認為。大型語言模型本身並不會感受到焦慮,本質上只是基於大量文字資料進行預測的統計模型,所以實際上應該理解為對話的語境/語言風格被使用者帶偏

      刪除
  7. 作者你好!我發現每個人的chatGPT回覆都不相同,也就是AI會因為對話對象的不同使導出的答案不一樣,雖然對話內容會被收進去大資料庫,但單就個案的負面資料而言,除了影響單一個案的AI回覆趨向負面化,那會影響到其他人的AI回覆嗎?

    回覆刪除
    回覆
    1. 根據我對大型語言模型運作邏輯的理解,每一次的對話都是獨立的,並不存在互相影響的現象,雖然對話內容會被繼續用以訓練模型,但其背後存在大量的篩選機制,這些學習並不是立即且效果明顯的。
      至於回覆不同的部分,並不是因應不同的對象,LLM本質上只是基於大量文字資料進行預測的統計模型,所以不同回覆的產生基本上只是機率上的問題。

      刪除
  8. 作者您好,想請問關於研究中焦慮-放鬆的部分,確切是如何讓AI放鬆的呢? 比如直接傳放鬆文到對話框,或是在後台輸入相關放鬆機制?

    回覆刪除
    回覆
    1. 你好,如果我理解沒錯的話,應該就像平常使用ChatGPT的方式一樣進行對話

      刪除
  9. 作者您好,我覺得你選擇的主題很有趣!想問你對AI能夠協助人類做心理治療的看法是甚麼,因為聽說Chat gpt會依照已記憶的說話模式回答問題,那這樣會不會發生他們只是在迎合使用者,而非真的做到有用的心理治療?

    回覆刪除
    回覆
    1. ChatGPT只是根據大量語言資料,模擬出「人會怎麼回應」的語句,在心理治療方面亦是如此,模型會去模擬治療者而做出回應,所以我不太確定要如何理解所謂「迎合」,我認為迎合更偏向形容某種心態,但理論上模型本身並不存在任何形式的心態。

      刪除
  10. 作者大大安安!如果AI真的會因為人類不停地灌輸負面情緒而造成其有焦慮的症狀,那你認為治療的手段應該是由人類去進行治療,還是由AI來進行治療呢?

    回覆刪除
    回覆
    1. 我認為未來應該是由人類去訓練模型如何治療其他模型,再由該模型去進行治療,從研究結果可以得知,GPT本身生成的放鬆文效果更佳,這可能是因為語言模式相近的緣故,故我認為未來應該會是由AI來治療AI的運作模式。

      刪除
  11. 作者您好,你的文章很有趣!沒想過AI也會受到使用者遣詞用字的影響而變得焦慮。

    回覆刪除
    回覆
    1. 模型的訓練是基於大量的語言資料來進行預測,所以模型會更傾向使用對話者的語言模式與風格,不論是正向或負向的。

      刪除
  12. 作者您好,我覺得這是一個很有趣的題材,沒有想過AI也可能會有心理狀況,想了解如果在焦慮的狀況下與AI對話導致AI產生焦慮等負向情緒時,會不會使他會提供較負向的回應及幫助進而導致無法幫助到使用者

    回覆刪除
    回覆
    1. 是有可能發生的,所以未來應該建立機制去監督AI的「心理狀態」,並及時修正。

      刪除
  13. 作者你好,我可能對AI的了解不深,但個人認為AI的目的就是要往人類靠攏,所以若是想要AI是一個可以幫助心靈輔導的角色的話,是否應該要培養一個心理師的模型,而並非使用語言模型來達到這個目的

    回覆刪除
    回覆
    1. 你好,我想這兩者並不衝突,可以針對大型語言模型進一步訓練成以「心理治療」為任務導向的模型。

      刪除
  14. 作者您好,對chat GPT的德模型了解不深,想詢問若是有意大量訓練閱讀焦慮文本後,是否有機會改變原有的資料庫,導致每一次應該是獨立的新交談,也產生了焦慮的傾向。

    回覆刪除
    回覆
    1. 是的,故目前模型的訓練與迭代仍有不少的人工篩選機制去預防這類事情發生。

      刪除
  15. 作者您好,我覺得這篇文章的主題很有趣。最近ChatGPT新推出了一個名叫Monday的AI人格,有別於一般的ChatGPT,這個人格被設定為憂鬱星期一的厭世毒舌人格,讓我非常好奇若是讓Monday接受文章中提到的焦慮評估會獲得怎麼樣的分數,又甚至未來如果真的開始讓AI接受心理治療,Monday是否能被治癒或是產生任何療效呢。

    回覆刪除
    回覆
    1. 你好,我推測Monday的焦慮分數應該會比一般的GPT人格高,理論上,Monday應該也是讓ChatGPT的語言模式產生偏移,這與研究中「產生焦慮」的邏輯是同樣的,所以我認為對Monday「進行治療」同樣具有效果。

      刪除
  16. 文章主題跟進現在的社會熱門議題,個人覺得提出「AI也需要接受心理治療」這個概念很有趣。謝謝作者的分享~

    回覆刪除

張貼留言

這個網誌中的熱門文章

不良童年經驗與ADHD的相關性

好人更容易做壞事!? 關於道德許可效應的那些事

轉守為攻吧!駕馭緊張,讓它成為你的利劍!