原始文章

當代大型語言模型(LLMs)在處理電子健康紀錄(EHRs)中的非結構化數據方面展現潛力,特別是在心理健康領域。英國國民健康服務(NHS)面臨心理健康護理的長等待名單,每月有數十萬轉診需要分流。透過LLMs分析臨床筆記,可以推薦合適的護理團隊,減少等待時間並改善分流決策。本研究提出三種基於LLM的方法,能在單一GPU上運行,適合NHS的資源限制,並維護臨床數據的保密性。相關代碼可在GitHub上獲得。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在自然語言處理領域有潛力,可加速臨床實踐,如診斷、預防和治療。智能對話系統運用LLMs被視為治療的未來,尤其是在ChatGPT時代。這研究專注於在醫療保健領域運用LLMs,特別關注認知衰退和產後抑鬱。討論LLMs在醫療保健中的好處,如增進臨床任務和提供個人化醫療,以及相關擔憂,如數據隱私和公平性。這有助於全球討論將LLMs整合到醫療系統中。 PubMed DOI

這項研究比較了不同大型語言模型在將病患配對到醫療臨床試驗上的效果。研究發現,當開源模型在專門的數據集上進行微調時,其表現可以與專有模型媲美。這項研究展示了開源模型在醫療應用中的潛力,並提供了一個數據集和一個經過微調的模型供公眾使用,以鼓勵在這個領域進行更多研究。 PubMed DOI

研究發現大型語言模型在緊急室評估臨床嚴重程度時表現優異,準確率高達89%,比起人類分類更準確。LLM表現與部分醫師評審相當,顯示將其整合到緊急室工作流程可能有助於改善分流流程,並不影響質量。這項研究結果指出在這個領域還有進一步研究的必要。 PubMed DOI

研究評估LLMs和ChatGPT在急診室分流的效果,與受訓與否的人員比較。結果顯示LLMs和ChatGPT表現不錯,但沒有超越專業人員。雖然在此研究中未顯著改善未受訓醫生的工作,但新LLMs版本經更多訓練後有潛力提升。 PubMed DOI

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

全球心理健康問題日益嚴重,現有的照護模式無法滿足需求。大型語言模型(LLMs)被視為解決方案,能在心理健康教育、評估和介入上提供幫助。本文回顧了LLMs的應用,並指出其潛在的正面影響與風險,強調需採取策略來降低風險。平衡心理健康支持的需求與LLMs的負責任開發至關重要,確保這些模型符合倫理標準,並讓有經驗的人參與開發,以減少傷害並增強其正面影響。 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 PubMed DOI

這篇系統性回顧探討大型語言模型(LLMs)在心理健康領域的應用,特別是在早期篩檢、數位介入和臨床應用的有效性。回顧分析了2017年到2024年期間的40篇文章,結果顯示LLMs能有效識別心理健康問題並提供電子健康服務,但也存在文本不一致、幻覺現象及缺乏倫理框架等風險。主要挑戰包括需要多語言專家標註的數據、內容可靠性及數據隱私等倫理問題。雖然LLMs不應取代專業服務,但作為輔助工具的潛力值得進一步研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 PubMed DOI