原始文章

這項研究比較了大型語言模型(如GPT-3.5和GPT-4)與傳統機器學習方法(如梯度提升樹)在使用電子健康紀錄預測臨床結果的效果。結果顯示,傳統機器學習在預測性能和模型校準上均優於大型語言模型,且在隱私保護下對人口統計信息的泛化能力更強。雖然GPT-4在公平性指標上表現最佳,但其預測性能卻有所下降。總體來看,傳統機器學習在臨床預測任務中仍然更為有效和穩健。 PubMed DOI


站上相關主題文章列表

GPT-4被用於病例報告的診斷挑戰,但僅在少數病例中表現良好。為了保護隱私,測試了提取術語生成提示的方法。結果顯示從結構化數據創建的提示效果更差,不同版本的GPT-4表現也不同。這凸顯了在臨床診斷中使用GPT-4的限制,強調了需要研究如何從臨床數據中創建有效提示。 PubMed DOI

研究發現GPT-4在醫學案例初步診斷、檢查和治療方面表現最佳,尤其在常見疾病方面。商業LLMs有潛力用於醫學問答,但仍需加強。開源LLMs則可應對數據隱私和培訓透明度需求。強調強大且受監管的AI模型在醫療保健領域的重要性。 PubMed DOI

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

這項研究評估了GPT-3.5-turbo和GPT-4-turbo在急診部門提供臨床建議的表現,分析了10,000次就診。結果顯示,這兩個模型的準確性都不如住院醫師,GPT-4-turbo平均低8%,而GPT-3.5-turbo低24%。雖然這些大型語言模型在敏感性上表現良好,但特異性較低,顯示出建議過於謹慎。研究指出,儘管LLMs在臨床應用上有潛力,但在成為可靠的醫療決策支持系統前,仍需大幅改進。 PubMed DOI

一項研究比較了大型語言模型(如GPT-3.5和GPT-4)與傳統機器學習(特別是梯度提升樹)在使用電子健康紀錄進行臨床預測的表現。結果顯示,傳統機器學習在預測準確性和校準上均優於大型語言模型,且在隱私保護方面更具韌性。雖然GPT-4在公平性上表現較好,但其預測性能卻不如傳統方法。整體而言,目前大型語言模型在臨床預測任務上仍落後於傳統機器學習,但未來有改進的潛力。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究評估了大型語言模型(LLMs)和醫學實習生在臨床決策中推薦醫學計算器的能力。研究測試了八種LLMs,使用1,009個與臨床相關的問答。表現最佳的LLM,GPT-4o,準確率為74.3%,而人類標註者的平均準確率為79.5%。分析顯示,LLMs在理解和計算器知識上有困難,顯示人類在複雜臨床任務中仍優於LLMs。 PubMed DOI

大型語言模型(LLMs)在臨床醫學中展現出潛力,能改善決策支持、診斷及醫學教育。不過,將其整合進臨床流程需徹底評估,以確保可靠性、安全性及倫理性。本系統性回顧調查了LLMs在臨床環境中的評估方法,發現大多數研究集中於一般領域的LLMs,醫學領域的研究較少。準確性是最常評估的參數。儘管對LLMs的興趣上升,研究中仍存在限制與偏見,未來需建立標準化框架,確保其安全有效地應用於臨床實踐。 PubMed DOI