原始文章

這項研究比較四種大型語言模型(LLM)在協助罕見兒童疾病藥物超適應症資訊檢索的表現,發現GPT-4o表現最好,優於Scopus AI。雖然有時LLM給的參考文獻品質甚至比人類還高,但結果會因查詢內容不同而有落差。LLM能加快資訊搜尋,但還是需要專業人員審核,確保正確性。 PubMed DOI


站上相關主題文章列表

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)—Copilot、GPT-3.5 和 GPT-4—在提供抗瘧疾藥物對系統性紅斑狼瘡(SLE)使用的準確性和完整性。研究設計了十三個問題,兩位風濕病學專家對模型回應進行評分。結果顯示,雖然準確性高,但完整性差異明顯:Copilot 38.5%,GPT-3.5 55.9%,GPT-4 92.3%。特別是在「作用機制」和「生活方式」方面,GPT-4 完整性達100%。研究指出,GPT-4 有潛力改善病人對 SLE 治療的理解,但仍需進一步研究以克服臨床應用的限制。 PubMed DOI

這項研究評估了兩個AI語言模型,GPT-3.5和GPT-4,在小兒腎臟科臨床資訊的有效性。40位小兒腎臟科專家對這些模型進行了評分,結果顯示兩者表現相似,GPT-4稍微高一些,但差異不顯著。分析顯示,模型的內部一致性較低,專家經驗與評價無明顯相關。研究指出,這些AI模型雖能提供基本資訊,但未能解決小兒腎臟科的特定挑戰,強調專業訓練和人類監督的重要性。 PubMed DOI

在兒科護理中,藥物計算錯誤仍然是一大挑戰。本研究探討大型語言模型(LLMs)如ChatGPT-4o和Claude-3.0在減少這些錯誤的效果,並與經驗豐富的護理人員進行比較。結果顯示,LLMs的準確率達100%,而護理人員為93.14%。此外,LLMs的計算速度也顯著更快。研究建議進一步探索這些模型在醫療環境中的應用潛力,以提升藥物安全性和臨床效率。 PubMed DOI

這項研究探討了一個微調過的GPT-3模型在農村醫療環境中對兒科病例診斷的有效性,因為這些地區專家資源有限。研究分析了路易斯安那州中部的500個兒科就診案例,發現模型準確率達87.3%,敏感度和特異度分別為85%和90%,與兒科醫生的91.3%相當。模型在不同年齡組和常見病症中表現穩定,但對罕見診斷的準確率稍低。總體來說,這個微調的GPT-3模型可作為農村兒科護理的可靠診斷工具,但仍需在不同人群中進一步驗證。 PubMed DOI

這項研究顯示大型語言模型(LLMs)在診斷罕見疾病方面的潛力,因為這些疾病因發病率低且表現多樣而難以識別。研究分析了152個來自中國醫學案例資料庫的案例,並比較了四個LLMs(ChatGPT-4o、Claude 3.5 Sonnet、Gemini Advanced和Llama 3.1 405B)與人類醫師的診斷準確性。結果顯示,LLMs的表現超越人類醫師,Claude 3.5 Sonnet的準確率達78.9%,而人類醫師僅26.3%。這顯示LLMs在臨床上可能成為有價值的工具,但在實際應用前仍需進一步驗證及考量倫理與隱私問題。 PubMed DOI

重點整理: 雖然AI正在改變醫學領域,但在小兒科方面的研究還很少。這項研究發現,一個免費、未經專門訓練的大型語言模型,針對13種常見小兒感染情境,能夠提供可靠的抗生素處方建議。 PubMed DOI

這項研究開發了一套免寫程式碼、全自動化的方法,利用GPT-4o mini從50份藥品說明書中擷取兒童用藥資訊。辨識兒科適應症時,召回率高達95%、精確率有78%,證明大型語言模型能有效分類適合兒童的藥物。這工具讓沒IT背景的醫療人員也能輕鬆操作。 PubMed DOI

這項研究發現,雖然Claude等大型語言模型在小兒腎臟科案例上表現最佳,正確率達86.9%,但所有模型都會出現幻覺,甚至可能給出危險建議。即使用專業資料微調,推理能力也沒提升。目前LLM只能在嚴格監督下協助重複性工作,還不適合獨立臨床應用,未來需加強可靠性與可解釋性。 PubMed DOI

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 PubMed DOI