原始文章

EHRAgent是一個新提議的大型語言模型,旨在提升從電子健康紀錄(EHR)中檢索病人資訊的效率。臨床醫生常覺得這過程繁瑣且緩慢,通常需要數據工程師的協助。EHRAgent透過自然語言讓醫生自主生成和執行代碼,簡化查詢過程。它將複雜查詢分解為簡單動作,並結合醫學知識來提取正確紀錄。實驗顯示,EHRAgent在三個真實EHR數據集上成功率提升29.6%,顯示其在處理複雜臨床任務的有效性。 PubMed DOI


站上相關主題文章列表

研究使用電子健康記錄進行表型分析時,需要準確的演算法,但開發這些演算法可能耗費大量時間。研究指出,使用大型語言模型(LLMs)能有效生成初步演算法,其中GPT-4和GPT-3.5在評估中表現較佳。然而,仍需要人類專業知識來完善這些演算法。 PubMed DOI

LLMs在醫療領域有潛力,可提供臨床決策支持。評估這些代理在臨床模擬中的表現對於了解其影響至關重要,稱為AI-SCE。建立健全的評估框架將有助於LLMs成功應用於醫療環境。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在電腦媒介臨床諮詢中的應用潛力,涉及醫生、電子健康紀錄(EHR)系統和病人。儘管自然語言處理(NLP)已有進展,但EHR中的自由文本數據尚未被充分利用。LLMs擅長理解和生成自然語言,能有效處理臨床對話。論文建議透過針對特定任務的預訓練和微調,醫療提供者可利用自由文本來識別病人安全問題、支持診斷,並改善臨床互動。作者認為,微調的LLMs結合提示工程,能提升初級護理諮詢的效率與效果。 PubMed DOI

這項研究系統性回顧了生成性大型語言模型(LLMs)在臨床環境,特別是電子健康紀錄(EHRs)的應用。儘管自然語言處理技術進步,LLMs在臨床實踐中的整合仍有限,面臨多重挑戰。研究分析了自2023年以來的76篇相關文獻,發現包括提示工程的使用、少數多模態數據的應用、評估指標的多樣性,以及臨床決策中的偏見和幻覺等問題。未來需改進計算技術和標準化評估,以提升LLMs在醫療中的可靠性。總之,LLMs在病人護理上有潛力,但仍需克服重大障礙。 PubMed DOI

臨床敘述的摘要對編碼人員來說非常重要,但臨床文本的複雜性卻帶來挑戰。最近的研究顯示,大型語言模型(LLMs)在摘要臨床文本方面有潛力,特別是在放射學和心臟超音波領域。研究團隊從MIMIC-III資料庫創建了一個數據集,並對兩個開源LLM進行微調,結果發現生物醫學預訓練模型的表現優於一般模型。這顯示針對臨床領域的LLM能成為編碼人員的有用工具,未來應該調整更先進的模型以提升表現。 PubMed DOI

這項研究探討如何將大型語言模型(LLMs)整合進證據基礎醫學(EBM),以自動化任務如證據檢索和傳播,來提升臨床決策。研究比較了七個LLMs的表現,結果顯示這些模型在理解和總結方面表現優異,知識引導的提示也顯著提升了效果。不過,在命名實體識別和事實準確性上仍面臨挑戰,需要進一步研究和質量控制才能應用於臨床。研究結果和代碼已在GitHub上公開。 PubMed DOI

這項研究探討增強檢索生成(RAG)的大型語言模型(LLMs)在急診科臨床紀錄中生成ICD-10-CM代碼的有效性,並與醫療提供者進行比較。研究基於Mount Sinai Health System的500次急診就診數據,發現RAG增強的LLMs在準確性和特異性上均優於醫療提供者,且GPT-4的表現尤為突出。即使是較小的模型如Llama-3.1-70B,經過RAG後也顯示出顯著提升。這顯示生成式人工智慧在改善醫療編碼準確性及減少行政負擔方面的潛力。 PubMed DOI

癌症案例報告的主要挑戰在於手動審查大量報告的繁瑣過程。目前的做法多依賴基於規則的系統或自訂的監督學習模型來預測診斷代碼。雖然這些方法有潛力,但在實際應用中可能受到偏見影響。我們針對肺癌進行的可行性研究中,開發了一個檢索增強生成(RAG)系統,利用大型語言模型(LLMs)進行癌症登記編碼。結果顯示,未微調的LLMs也能有效運作,且透過提示工程可顯著提升表現,為癌症登記員提供了提高效率與準確性的有力工具。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 PubMed DOI

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI