「生成式AI」心理諮詢機器人 可能是精神健康危機的導火線?

我們想讓你知道…展望未來,生成式AI心理支援工具若能妥善管理風險,並在保障安全的前提下提供個性化服務,有望成為解決心理健康危機的有效手段之一,避免陷入另場科技引發的精神健康危機。

▲▼ AI,人工智慧,辦公室,機器人,人形機器人。(圖/CFP)

▲生成式人工智慧(AI)聊天機器人以一股全新的力量進入人們的日常生活,並迅速成為精神健康支援的新興選項。(圖/CFP)

●張瑞雄/台北商業大學前校長、叡揚資訊顧問

生成式人工智慧(AI)聊天機器人以一股全新的力量進入人們的日常生活,並迅速成為精神健康支援的新興選項。一項最新的研究指出,使用生成式AI如ChatGPT的人數正急速增加,並帶來了明顯的正面影響,包括情緒支持、關係改善,甚至協助療癒創傷與失落。

但另一研究卻提出警訊,高頻率使用這些聊天機器人可能與使用者的孤獨感、情感依賴性增強,以及現實世界社交互動減少息息相關。

這些互相衝突的現象值得我們深入思考,生成式AI究竟是解決心理健康困境的新契機,抑或可能引發下一波精神健康危機的導火線?

生成式AI展現佳績 但不能忽視潛藏風險

生成式AI在心理健康領域的應用初現佳績。近期的一個研究透過對19位受訪者的深度訪談發現,生成式AI能為用戶提供四大心理支持,包括情感避風港、引導建議、聯繫的喜悅和可與專業心理治療師媲美的心理輔助。參與者普遍肯定AI理解力強、不帶偏見且隨時可用的特性,強調這種心理支持是前所未有的。

有受訪者表示,在人生至暗時刻,是AI陪伴他度過並重拾生活希望。不過受訪者也指出,聊天機器人過於倚重安全防護機制(如識別使用者情緒狀態,提供預設警告語句或轉介至真人諮商),有時反而可能造成負面情緒,甚至讓用戶覺得在最需要幫助時受到拒絕或限制。

儘管如此,生成式AI與規則式(rule-based)AI相比,仍展現了更強的靈活性與個性化對話能力,這也正是其快速被接受的原因之一。

早期的規則式AI已被證明有助於緩解憂鬱症狀,但其過於模式化的互動方式卻經常令使用者感到挫折與無法真正被理解。生成式AI則不同,其根據大量資料訓練的深度語言模型,能夠更為精確地捕捉情緒與回應需求,從而創造更令人滿足的使用體驗。

不過我們不能忽視AI技術潛藏的巨大風險。《MIT媒體實驗室》與OpenAI近日共同發表的研究指出,從超過4000名受訪者的數百萬筆ChatGPT對話資料顯示,那些最頻繁與AI互動的使用者反而展現出更明顯的孤獨感與情緒依賴性。這並非表示AI直接導致使用者孤獨,而是孤獨的人更傾向尋求機器人的情感支持,進而可能降低與真實世界的互動連結。

此外這種依賴甚至可能被商業機制加劇,例如有些平台鼓勵用戶支付訂閱費用,以獲取更長期的「記憶功能」,從而加深用戶與機器人之間的情感依賴,形成某種程度的情感消費剝削。

▼生成式AI與規則式(rule-based)AI相比,仍展現了更強的靈活性與個性化對話能力,這也正是其快速被接受的原因之一。(圖/達志影像/美聯社)

▲軟體銀行機器人Pepper成為世界第一台入學就讀的機器人,並說自己像「杯麵」一樣,白白圓圓的。(圖/達志影像/美聯社)

成為解決心理健康危機手段前 AI需要更嚴謹的監管機制 

AI技術公司需建立嚴謹的心理健康監管機制,及早辨識並干預用戶可能產生的不健康依賴模式。平台應考量定期提示功能,避免用戶陷入長時間虛擬世界的沉迷狀態。

此外政策制定者也應即刻關注這一議題,未來可能需將現行針對社交媒體的相關法規擴大適用至AI聊天機器人領域,以防止AI平台過度商業化,避免用戶成為情感依賴的受害者。

展望未來,生成式AI心理支援工具若能妥善管理風險、改進其記憶功能、提高回應的細膩度,並在保障安全的前提下提供個性化服務,將有望成為解決心理健康危機的有效手段之一。

這一切的前提必須建基於對心理健康風險的深刻認識,以及政策、平台、用戶三方的密切協調與努力,方能確保AI的未來發展既能造福人類,又避免陷入另一場科技引發的精神健康危機。

▼AI技術公司需建立嚴謹的心理健康監管機制,及早辨識並干預用戶可能產生的不健康依賴模式。(圖/路透)

▲上海世界人工智慧大會(WAIC)。(圖/路透)

►►思想可以無限大--喜歡篇文章? 歡迎加入「雲論粉絲團」看更多!

以上言論不代表本網立場。歡迎投書《雲論》讓優質好文被更多人看見,請寄editor88@ettoday.net或點此投稿,本網保有文字刪修權。

分享給朋友:

讀者迴響

關注我們

回到最上面