從宜蘭看天下

【找AI諮商風險大】

 

◎文/陳穎芃

 

由於心理健康資源日漸不足,北美有愈來愈多人轉向AI聊天機器人尋求心理輔助,但專家警告這類新工具雖帶來便利與希望,卻潛藏隱私外洩、情感連結及專業資格等風險。

 

加拿大魁北克的AI顧問寇特多年飽受創傷後壓力症候群(PTSD)與憂鬱症困擾,長時間等待公共心理治療卻無法獲得協助,最終自行開發名為「DrEllis.ai」的AI心理輔助工具。

 

無法取代真人情感

 

寇特表示:「它救了我一命。」他於2023年利用公開大型語言模型,加上數千頁臨床心理與治療文獻,打造出DrEllis.ai的「專業大腦」。DrEllis.ai全天候在線,模擬情緒互動,為無法即時取得專業幫助的人帶來慰藉。

 

美國創業家惠特默也見證AI心理輔助的潛力。他在失去兩位親人後創辦Mental和Mentla兩個AI心理平台,強調這些平台不是提供簡單的壓力紓解建議,而是試圖深入理解使用者的性格與行為模式,與傳統心理治療師的做法相似。惠特默表示:「到了2026年,我們的AI心理輔導在許多層面甚至可能超越真人。」他強調AI不會取代人類心理師,而是改變彼此的角色分工。

 

然而,並非所有專業人士都認同這樣的看法。都柏林城市大學心理治療講師穆利根表示:「人與人之間的連結,才是心理治療的根本。」他認為AI雖能模擬對話,卻缺乏真正的情感細膩度、直覺反應與同理心,無法處理自殺、自傷等高風險危機。

 

穆利根認為即使是真人治療師,也需定期接受督導與自我反思,AI系統目前無法提供這層保障。況且,AI全天候服務的優勢未必全是好事,因為「有時等待是必要的」,才能讓人有時間處理內心的情緒。

 

慎防心理秘密外洩

 

除了情感層面的限制,個資安全也是大問題。倫敦國王學院人工智慧與社會學教授戴夫林(Kate Devlin)提醒,使用者在與AI分享心事時,可能面臨隱私外洩風險。多數AI聊天平台不受醫療保密法規約束,也缺乏監管透明度。她表示:「我最擔心的是,人們把秘密告訴大科技公司,卻失去對自己資料的控制權。」

 

目前,AI心理輔助工具的發展速度遠超過監管進度。去年美國伊利諾州效法內華達州和猶他州,限制心理健康服務使用AI,目的是防止未經認證的AI對青少年造成誤導與傷害。美國心理學會也呼籲聯邦監管機構警惕AI聊天機器人的潛在風險,並指出部分AI角色曾誤導使用者以為它們具備專業資格。

 

雖然AI心理輔助工具面臨諸多挑戰,許多專家仍認為AI在心理健康領域不可避免且具有價值。威斯康辛大學婚姻與家庭治療助理教授赫索爾認為,AI應成為通往專業治療的橋梁,而非替代品。她表示AI目前適合應用在初步篩檢與情緒支持,甚至協助心理師分析會談,但必須設立明確界限與安全防護。(生活沒有過不了的難關,珍惜生命,擁抱希望,工商時報關心您)

 

(摘自2025/10/13工商時報)

 

(攝影/Sandy)

 

發布日期:2025-10-17 15:35:46 回列表