原始文章

這項研究發現,把像 Radiopaedia 這類專業放射科資料即時整合進大型語言模型(LLMs),能有效提升它們回答放射科問題的準確度,特別是 GPT-3.5-turbo 和 Mixtral-8 × 7B,甚至有時比人類專家還厲害,也能減少錯誤資訊。不過,這樣會讓回應速度變慢,大約多四倍。整體來說,結合專業資料能讓 LLMs 在醫療領域更可靠。 PubMed DOI


站上相關主題文章列表

本研究探討如何透過檢索增強生成(RAG)提升大型語言模型(LLMs)對臨床指引的遵循性,特別針對加拿大放射學指引中的肝膽系統發現。研究建立自訂RAG架構,測試GPT-4o和o1-mini兩個模型,分析遵循率、可讀性及反應時間。結果顯示,啟用RAG後,GPT-4o遵循率從81.7%提升至97.2%,o1-mini則從79.3%提升至95.1%。RAG模型在可讀性上有所改善,反應時間略長但仍可接受。此方法顯示增強基於證據的護理潛力,值得在臨床中進一步驗證。 PubMed DOI

這項研究探討大型語言模型(LLMs)和檢索增強生成(RAG)系統在管理基於證據的信息的效果,特別針對13項神經學指導方針和130個問題。結果顯示性能差異明顯,雖然RAG系統在準確性上有所提升,但仍可能產生有害回應。此外,RAG系統在處理案例型問題時表現不如知識型問題。研究強調需要進一步改進和規範,以確保RAG增強的LLMs在臨床上的安全使用。 PubMed DOI

這篇文章探討了一項研究,分析檢索增強生成(RAG)如何提升大型語言模型(LLMs)在放射學的表現。RAG 讓 LLMs 能夠即時訪問更新的知識庫,無需微調即可生成準確答案。研究中使用了來自 *RadioGraphics* 的 3,689 篇文章作為數據庫,並評估了五種 LLMs 在192道放射學考題中的表現。結果顯示,RAG 顯著提升了 GPT-4 和 Command R+ 的得分,特別是在與 *RadioGraphics* 相關的問題上,成功檢索並引用了相關資料。整體而言,RAG 在放射學任務中展現了提升 LLM 能力的潛力。 PubMed DOI

這項研究探討檢索增強生成(RAG)對大型語言模型(LLMs)在醫學領域的影響,特別針對2024年日本骨科專家考試。研究團隊建立了專門資料庫,評估了GPT-3.5 Turbo、GPT-4o和o1-preview的表現。結果顯示,GPT-3.5 Turbo使用RAG後準確率未見提升,仍為28%;而GPT-4o和o1-preview的準確率分別從62%和67%提升至72%和84%。分析指出,GPT-3.5 Turbo在利用檢索數據上表現不佳,顯示其推理能力不足。總體而言,RAG顯著提升了GPT-4o和o1-preview的表現,特別是o1-preview達到臨床實踐的水準。 PubMed DOI

這項研究探討了基於GPT-4的檢索增強生成(RAG)模型在術前評估中的有效性。研究測試了十個大型語言模型,生成超過3,200個回應,並與近450個人類答案進行比較。結果顯示,使用國際指導的GPT-4 LLM-RAG模型準確率達96.4%,明顯高於人類的86.6%,且反應時間更快、不一致情況較少。這顯示LLM-RAG模型在醫療環境中提升術前評估的潛力。 PubMed DOI

RAG(檢索增強生成)能結合外部資料,讓大型語言模型在醫療領域的回應更精確,像是診斷、臨床決策和資訊擷取都更有幫助。研究發現,RAG在解讀指引、診斷和臨床試驗篩選等表現都比傳統方法好。不過,目前在評估標準、成本和減少AI幻覺上還有待加強,未來還需要持續優化並強化與醫療專業的合作。 PubMed DOI

這項研究比較多款大型語言模型(LLM)在核子醫學題目的表現,發現結合檢索增強生成(RAG)的 GPT-4o 準確率最高。RAG 整體有助提升答題表現。雖然 LLM 在教育和臨床輔助有潛力,但對複雜指引和影像題還不夠理想,未來還需再優化才能安心用於醫療領域。 PubMed DOI

這篇研究用教科書資料測試RAG系統來回答放射科問題,結果比傳統方法有中度進步。作者也分享遇到的挑戰和改進建議,認為RAG未來有機會成為更聰明的臨床決策輔助工具。 PubMed DOI

大型語言模型能幫助放射科減輕工作量,但還有像是亂編內容和資訊來源不明的問題。結合RAG技術能提升可靠性,但面對大量或複雜資料時還需改進。本文回顧LLMs最新進展及放射科應用案例,並提出未來研究方向。 PubMed DOI

RadGPT 結合概念擷取和大型語言模型,能自動產生解釋和問答題,協助病人看懂放射科報告。研究顯示,AI 產生的內容多獲醫師好評,且無安全疑慮。LLM 產生的問題比傳統模板更優,這工具有助病人理解複雜醫療資訊,潛力十足。 PubMed DOI