原始文章

這項研究探討了一個名為 Noora 的人工智慧程式,旨在幫助自閉症青少年和成年人提升社交對話中的同理心反應。研究中,參與者與 Noora 互動,並在四週內進行了 200 次試驗。結果顯示,使用 Noora 的參與者在同理心反應上有顯著改善,並且在社交場合中信心也有所提升。這表明 Noora 能有效增進自閉症患者的溝通技巧,提供一種成本效益高且可及的支持方式。 PubMed DOI


站上相關主題文章列表

研究使用大型語言模型在電子健康記錄中回應患者訊息,創建CLAIR-Short和CLAIR-Long模型,經醫師評分後發現CLAIR-Long提供更多教育內容,與ChatGPT相似。結果顯示大型語言模型可改善患者與醫師間的互動。 PubMed DOI

研究使用大型語言模型在電子健康記錄入口網站中回應患者訊息。CLAIR-Short和CLAIR-Long模型經醫師評估後,CLAIR-Long在同理心、反應速度和準確性表現較佳,提供更多患者教育內容。研究建議大型語言模型可增進患者與醫療提供者溝通。 PubMed DOI

研究發現人工智慧生成的訊息能有效讓人感受到被聆聽,且辨識情緒能力較人類強。然而,當知道回應來自AI時,被聆聽感受較低。AI在提供情感支持並避免過多建議方面表現出色,但挑戰在於如何不貶低其回應。 PubMed DOI

研究比較神經學家和ChatGPT對多發性硬化症患者問題的回應,發現ChatGPT表現出更高的同理心,但受過大學教育者較不喜歡其回應。建議在醫療保健中使用人工智慧時應謹慎並基於人類互動。 PubMed DOI

研究評估大型語言模型對自閉症患者回應的效果,發現醫師回應更準確實用,而LLMs在同理心表現較佳。在將LLMs應用到臨床前,還需進一步研究和改進。 PubMed DOI

這項研究探討故事的作者身份(人類或AI)如何影響同理心,以及透明度在使用者情感中的角色。研究招募了985名參與者,讓他們撰寫故事並評估人類與AI撰寫的故事。結果顯示,參與者對人類故事的同理心較高,透明度則提升了對AI故事的同理心意願。這強調了故事呈現方式的重要性,並在設計具同理心的AI系統時需考慮倫理,特別是在心理健康領域。理解這些動態有助於提升AI社會支持工具的有效性。 PubMed DOI

全球心理健康危機顯示出對可及且有效介入措施的需求,生成式AI聊天機器人如ChatGPT逐漸成為解決方案。針對十九位使用者的訪談研究顯示,他們在使用這些聊天機器人時感受到高參與感和正面效果,包括改善人際關係及從創傷中癒合。研究中識別出四個主題:情感避風港、洞察指導、連結的喜悅,以及AI與人類治療的比較。雖然有些主題與傳統聊天機器人相符,但生成式AI的特性也顯現出來。參與者呼籲改善安全措施及人性化的記憶能力,顯示生成式AI在心理健康支持上有潛力,但仍需進一步研究其安全性與有效性。 PubMed DOI

這篇評論探討大型語言模型(LLMs)在醫療互動中展現同理心的能力。研究涵蓋2022年12月至2024年2月的12項2023年發表的研究,主要評估ChatGPT-3.5及其他模型如GPT-4和LLaMA。結果顯示,LLMs能識別情緒並提供情感支持,甚至在某些情況下表現超過人類。舉例來說,ChatGPT-3.5在回答病患社交媒體問題時,有78.6%的案例被偏好。然而,研究也指出語言重複和主觀評估偏見等限制。總體而言,LLMs在同理心方面有潛力,但仍需改進性能和評估方法。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

最近利用全基因組檢測或腦部掃描來診斷自閉症的努力並未有明顯進展,經驗豐富的醫療專業人員的臨床直覺仍是最可靠的診斷方式。我們利用深度學習分析專家根據臨床報告的推理過程,訓練大型語言模型並微調超過4,000份健康記錄,以區分自閉症案例。研究顯示,DSM-5標準中最關鍵的診斷指標是刻板重複行為、特殊興趣和感知行為,這挑戰了目前對社交缺陷的重視,暗示診斷工具可能需修訂。 PubMed DOI