LLM 相關三個月內文章 / 第 118 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究發現,透過 RAG 技術,本地部署的 LLM 在放射科顯影劑諮詢上表現更好,不僅消除幻覺現象,答案品質也提升。雖然雲端模型整體還是較優,但本地模型回應更快,且在 LLM 評審中表現勝過 GPT-4o mini。不過,放射科醫師還是偏好 GPT-4o mini。RAG 有助提升本地臨床 LLM 表現,並兼顧病患隱私。 相關文章 PubMed DOI 推理

Jackalope Plus 是一款新工具,結合 SNOMED CT 後協調和 GPT-4o mini LLM,能更快更準確地把複雜健康資料對應到 OMOP CDM。正確率超過 77.5%,比 Usagi 更好,準確度媲美人工但速度快很多。免費開放研究用途,不會儲存病患資料,未來會持續優化。 相關文章 PubMed DOI 推理

這項研究用微調過的大型語言模型和BERT實體辨識技術,從中醫古籍和資料中整理出結構化知識,打造智慧問答系統。這不只提升診斷和治療建議的品質,也有助於建立中醫知識圖譜,推動中醫智慧化和現代化發展。 相關文章 PubMed DOI 推理

這篇論文用大型語言模型,分析五千萬篇德文新聞,抓出地點資訊並用 SBERT 做語意嵌入,方便後續搜尋和分析。產生的地理資料和嵌入向量都已公開,這套方法也能用在其他國家的新聞資料上。 相關文章 PubMed DOI 推理

這篇文章介紹多種提示工程技巧(如 zero-shot、few-shot、chain of thought 等)對大型語言模型在放射科應用的影響,像是報告產生和臨床決策。文中也提到提示複雜度和 temperature 會影響模型表現。作者強調,設計提示時要謹慎、透明並持續優化,才能讓 LLMs 在放射科安全又合乎倫理地使用。 相關文章 PubMed DOI 推理

這篇文獻回顧發現,雖然多數人覺得生成式AI聊天機器人(如ChatGPT)提供的健康資訊方便又好懂,但大家對資訊的正確性、可信度和安全性還是有疑慮。這些問題若不解決,可能會影響健康結果。未來還需要更多有理論基礎的研究,深入探討AI健康資訊對消費者行為的影響。 相關文章 PubMed DOI 推理

這項研究開發了一套用大型語言模型(LLM)來監控AI偵測肺栓塞(PE)表現的系統,能每天追蹤AI和LLM結果差異,並針對有爭議的案例進行人工審查。分析近1.2萬筆CT掃描,這方法能及早發現AI準確率下滑或資料變化,並即時發出警示,協助維持醫療AI的品質與安全。 相關文章 PubMed DOI 推理

這項研究發現,不同Chain-of-Thought(CoT)提示方法對大型語言模型在醫學推理上的表現差異不大,簡單的CoT提示效果就很好。模型本身和資料集特性對準確率影響更大。以臨床紀錄為主的任務中,o1-mini模型表現最佳。總結來說,臨床決策應用上,建議優先採用簡單的CoT方法。 相關文章 PubMed DOI 推理

這項研究用 ChatGPT3.5 自動從電子病歷的出院摘要中擷取藥物資訊,解決了多語言和格式不一的問題。研究發現,few-shot 提示比 zero-shot 更準確,錯誤也較少。ChatGPT3.5 在命名實體辨識和文字擴充的 F1 分數分別達 0.94 和 0.87,更新版模型表現更好。結果證明大型語言模型能有效結構化藥物資料,提升資訊可用性。 相關文章 PubMed DOI 推理

這篇論文提出ECAMP新框架,專注醫療報告的實體和上下文,解決資料不平衡問題,提升影像與文字的理解。ECAMP用大型語言模型萃取重點,並採實體感知的平衡與遮罩策略,還加入上下文導向的超解析度和多尺度融合。實驗證明,ECAMP在多項醫學影像任務表現都比現有方法更好。 相關文章 PubMed DOI 推理