原始文章

將臨床知識融入人工智慧(AI)系統,分析非結構化的臨床對話,對提升可解釋性及心理健康從業人員(MHPs)的信任非常重要。本研究針對AI可解釋性挑戰,利用未開發的心理健康數據,特別是憂鬱症相關內容。 我們開發了一種名為PSAT的新架構,將臨床實踐指導方針納入注意力機制,並透過SNOMED-CT轉換為機器可讀格式,生成易於理解的解釋。評估結果顯示,PSAT在分類準確性及提供有意義解釋方面表現優異,對心理健康應用中的AI篩檢工具具有重要意義。 PubMed DOI


站上相關主題文章列表

醫學專家可能更信任人工智慧(AI)系統,若有「情境解釋」支持,將系統推論與現實應用連結。研究聚焦於合併症風險預測,探討如何利用醫學指南資訊為AI提供情境。透過大型語言模型(LLMs)建立端對端AI流程,研究顯示情境解釋可改善臨床對AI模型的理解與應用。結果顯示,像BERT和SciBERT的LLMs可有效提供臨床相關解釋,有助增進臨床醫師對AI模型的應用。 PubMed DOI

研究比較AI模型ChatGPT-3和ChatGPT-4以及初級保健醫師對抑鬱症的評估和治療建議。結果顯示,AI模型在輕度病例中推薦心理治療,而初級醫師則主張綜合治療。對於嚴重病例,AI模型偏好心理治療,醫師則建議綜合治療。AI模型偏好單獨使用抗抑鬱藥,醫師則建議混合使用。AI模型建議中沒有偏見,但仍需進一步研究以完善對嚴重病例的建議,並解決風險和道德問題。 PubMed DOI

這篇論文介紹了GPTFX,一種新型的基於人工智慧的心理健康檢測方法,利用GPT框架。它在分類心理健康疾病和生成解釋方面表現優異,分類準確率高達87%,Rouge-L分數為0.75。結合GPT嵌入與機器學習模型進行分類,並微調GPT-3生成解釋,適用於使用AI-IoMT設備進行心理健康的實時監測,比傳統方法更可靠。 PubMed DOI

研究探討AI如何幫助評估憂鬱症預後,並與人類看法比較。比較了不同AI模型和心理專業人員在預測患者結果的表現。結果顯示,大多數情況下AI和專業人員看法一致,但有一模型較悲觀。研究指出AI可補充專業人員,但需整合人類判斷。 PubMed DOI

研究使用ChatGPT協助輔導員與患者互動,並比較其回應與人類內容。整合AI技術改善心理健康干預,框架準確率達93.76%,ChatGPT回應有禮且簡潔。AI內容可增進傳統干預方法,提升醫療系統患者照護和輔導實踐。 PubMed DOI

這項研究探討了不同人工智慧模型在精神醫學診斷的表現,包括GPT-3.5、GPT-4、Aya和Nemotron。由於病人主觀報告的影響,準確診斷常常困難。研究使用20個DSM-5的臨床案例,結果顯示GPT-3.5和GPT-4在準確性和推理上優於其他模型,尤其在診斷精神病和雙相情感障礙方面表現突出,但在某些情況下則不佳。研究建議,人工智慧有潛力改善精神科診斷,但其他模型需進一步改進,未來應擴展數據集以增強診斷能力。 PubMed DOI

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI

這項研究評估了四個AI模型(ChatGPT 3.5、Google Bard、HuggingChat和Claude 2)生成的醫療解釋對病人理解的幫助。結果顯示,Claude 2的可讀性和可理解性最佳,但可行性較低;ChatGPT表現相似。Google Bard和HuggingChat的得分則較差。整體來看,Claude 2和ChatGPT的解釋較為清晰易懂,但研究強調仍需進一步探討這些AI解釋在實際醫療環境中的應用,並指出PEMAT評估的主觀性和AI工具的快速變化是限制因素。 PubMed DOI

抑鬱症是全球重要的公共健康議題,雖然已有研究探討人工智慧在心理健康的應用,但針對大型語言模型(LLMs)的深入分析仍不多。本系統性回顧評估了LLMs在抑鬱症診斷與管理的有效性,並探討其在臨床環境中的整合潛力。從2018年到2024年,回顧了34項研究,發現像RoBERTa和BERT等模型在早期檢測和症狀分類上表現優異。不過,LLMs的臨床應用仍需解決數據隱私和倫理問題,才能安全有效地整合進醫療實務中。 PubMed DOI