原始文章

這項研究開發了一套免寫程式碼、全自動化的方法,利用GPT-4o mini從50份藥品說明書中擷取兒童用藥資訊。辨識兒科適應症時,召回率高達95%、精確率有78%,證明大型語言模型能有效分類適合兒童的藥物。這工具讓沒IT背景的醫療人員也能輕鬆操作。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用先進的大型語言模型,如ChatGPT 3.5和ChatGPT 4,來提升醫療紀錄中ICD-10代碼的分類準確性,特別是針對現有方法識別為假陰性的紀錄。研究在MIMIC IV數據集的802份出院摘要上進行,結果顯示ChatGPT 4的匹配率為86%到89%,明顯優於ChatGPT 3.5的57%到67%。雖然經驗豐富的人類編碼員表現更佳,但ChatGPT 4的準確性已達到人類編碼員的中位數。這顯示將這類模型整合進臨床編碼中,能提升醫療文檔的準確性,特別在複雜案例中。 PubMed DOI

本研究評估了GPT-3.5和GPT-4在從非結構化臨床文本中提取資訊的效果。使用了病人特徵、病史和臨床檢測結果的資料,並透過簡單提示進行查詢。結果顯示,GPT-4在性別資訊提取上準確率達95%,優於GPT-3.5的70%;但在身體質量指數(BMI)方面,GPT-3.5的78%表現更佳。研究建議整合特定任務的定義進入提示中,以提升提取效果,並鼓勵專業人士設計有效提示,監控大型語言模型的表現。 PubMed DOI

這項研究評估了兩個AI語言模型,GPT-3.5和GPT-4,在小兒腎臟科臨床資訊的有效性。40位小兒腎臟科專家對這些模型進行了評分,結果顯示兩者表現相似,GPT-4稍微高一些,但差異不顯著。分析顯示,模型的內部一致性較低,專家經驗與評價無明顯相關。研究指出,這些AI模型雖能提供基本資訊,但未能解決小兒腎臟科的特定挑戰,強調專業訓練和人類監督的重要性。 PubMed DOI

在兒科護理中,藥物計算錯誤仍然是一大挑戰。本研究探討大型語言模型(LLMs)如ChatGPT-4o和Claude-3.0在減少這些錯誤的效果,並與經驗豐富的護理人員進行比較。結果顯示,LLMs的準確率達100%,而護理人員為93.14%。此外,LLMs的計算速度也顯著更快。研究建議進一步探索這些模型在醫療環境中的應用潛力,以提升藥物安全性和臨床效率。 PubMed DOI

這項研究探討了一個微調過的GPT-3模型在農村醫療環境中對兒科病例診斷的有效性,因為這些地區專家資源有限。研究分析了路易斯安那州中部的500個兒科就診案例,發現模型準確率達87.3%,敏感度和特異度分別為85%和90%,與兒科醫生的91.3%相當。模型在不同年齡組和常見病症中表現穩定,但對罕見診斷的準確率稍低。總體來說,這個微調的GPT-3模型可作為農村兒科護理的可靠診斷工具,但仍需在不同人群中進一步驗證。 PubMed DOI

重點整理: 雖然AI正在改變醫學領域,但在小兒科方面的研究還很少。這項研究發現,一個免費、未經專門訓練的大型語言模型,針對13種常見小兒感染情境,能夠提供可靠的抗生素處方建議。 PubMed DOI

這篇研究比較GPT-4大型語言模型、深度學習和機器學習三種方法在電子病歷症狀標準化上的表現。結果發現,GPT-4表現最好,顯示大型語言模型很有潛力成為未來醫師筆記自動化分析的主流工具,有助於推動精準醫療發展。 PubMed

這項研究發現,GPT-4o等大型語言模型能根據實際用藥情境(如劑量)準確判斷藥物的ATC分類,表現比傳統搜尋方法更好(92.5%對82.5%)。LLM不僅準確、取得容易,還能考慮情境資訊,對藥物流行病學研究很有幫助。 PubMed DOI

這項研究比較四種大型語言模型(LLM)在協助罕見兒童疾病藥物超適應症資訊檢索的表現,發現GPT-4o表現最好,優於Scopus AI。雖然有時LLM給的參考文獻品質甚至比人類還高,但結果會因查詢內容不同而有落差。LLM能加快資訊搜尋,但還是需要專業人員審核,確保正確性。 PubMed DOI

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 PubMed DOI