原始文章

這項研究探討生成性人工智慧(GenAI)在心理治療中的應用,特別是透過敘事治療和認知行為治療的外化技術。研究者開發了兩個AI工具:VIVI,用於生成代表病人內心經驗的圖像;DIVI,促進對話角色扮演以互動。這些工具作為「人工第三者」,增強治療師與病人之間的關係,但也面臨同理心缺失和文化偏見等挑戰。為解決這些問題,作者提出了SAFE-AI協議,提供負責任使用AI的指導方針,並鼓勵未來研究評估其在不同族群和環境中的有效性及倫理影響。 PubMed DOI


站上相關主題文章列表

生成式人工智慧(genAI)在提升醫療保健方面潛力巨大,特別是心理健康護理,因為美國專業人員短缺。針對自殺相關查詢,我們評估了五個genAI工具的回應質量。結果顯示,79%的回應是支持性的,但只有24%提供危機熱線號碼,僅4%包含基於證據的干預資訊。雖然有害內容出現頻率不高,但開發者應在提供必要的心理健康資訊與降低風險之間取得平衡,確保心理健康的平等應成為優先事項。 PubMed DOI

生成式人工智慧(Gen AI)在醫療保健領域展現出巨大潛力,能改善病人照護、個性化治療、專業人員培訓及推進研究。它在臨床上可協助制定治療計畫、分析醫學影像、預測風險等,並透過自動化行政任務減輕醫師負擔,讓他們有更多時間與病人互動。此外,Gen AI也能提升手術結果。在非臨床方面,它增強醫學教育和醫療行銷,持續改善臨床和運營效率,使醫療服務更主動、預測性和精確。 PubMed DOI

生成式人工智慧(GenAI)在心理健康領域展現出重要潛力,能提供個人化的照護與危機預測,但其使用需謹慎考量倫理問題。這期專題專注於GenAI的負責任應用,探討情感識別、治療會議摘要等能力,並強調心理健康數據的敏感性及驗證的重要性。貢獻者指出需解決偏見、透明度等問題,確保AI輔助照護符合倫理。專題提出最佳實踐與監管方法,主張GenAI應輔助人類同理心,而非取代,強調各界合作的重要性。 PubMed DOI

生成式人工智慧(AI)如ChatGPT,正在改變醫療保健,特別是在病人教育和醫師關係上。這篇回顧探討了生成式AI的雙重影響,包括提升病人對醫療問題的理解、鼓勵自我照護及協助醫療決策的潛力。然而,也存在風險,如病人與醫師之間信任下降及錯誤資訊的散播。研究顯示,生成式AI能提升病人的健康素養,使醫療資訊更易理解。未來需謹慎整合AI工具,確保增強醫師的個人化照護,並解決倫理問題,以維護病人照護品質。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

心理健康服務的可及性是全球性議題,需求日益增加。對話式人工智慧(AI)被視為潛在解決方案,但建立可靠的虛擬治療師仍具挑戰。本研究探討將AI整合進虛擬實境(VR)自我對話的優缺點,重點在用戶體驗及AI在自我反思和問題解決中的角色。經過兩年半的開發,我們進行了為期三個月的質性研究,結果顯示AI能改善參與者的思維過程,增強自我反思能力,並提升心理諮詢的效果。 PubMed DOI

這篇論文探討生成式AI如何結合神經科學和生理學,推動精神醫學發展。AI能協助資料分析、實驗設計、臨床支援,還有助於發現新生物標記和建構症狀模型。作者強調AI與神經科學互相促進,但也提醒要注意數據品質、隱私和資源限制,建議在精神健康照護中審慎運用AI。 PubMed DOI

這篇系統性回顧發現,生成式AI像ChatGPT在心理健康領域有潛力,但目前在診斷、文化敏感度和情感互動上還有不少限制。多數研究評估方式較簡單,無法全面反映AI實力。使用者對信任度和情感連結也有疑慮。未來需要更進階的評估和長期研究,才能真正發揮AI在心理健康照護的價值。 PubMed DOI

這篇文章討論生成式 AI(像 ChatGPT)在澳紐精神科醫師訓練的應用,包含學員選拔和評量。雖然 AI 有助提升效率,但在病患資料的倫理和隱私上仍有限制。RANZCP 應調整評量方式,因為完全禁止 AI 並不實際。隨著 AI 快速進步,訓練內容也要持續更新,才能跟上潮流。 PubMed DOI

GPT-4等生成式AI能提升臨床效率,尤其在複雜照護上,但因推理過程不透明,容易引發安全疑慮。這在精神健康照護特別重要,因為該領域有獨特需求。作者提出CRITiCS架構,強調醫師需持續參與並理解AI推理,同時呼籲建立AI負責任使用的共識。 PubMed DOI