LLM 相關三個月內文章 / 第 7 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

o1 reasoning model 是新一代 AI 系統,研究發現它在臨床決策時的認知偏誤比 GPT-4 和人類醫師少,且表現較穩定。在 10 個案例中有 7 個完全沒偏誤,但遇到特定提示時還是會出現明顯偏誤。雖然 o1 有助減少偏誤和不一致,但仍無法完全避免,未來還需進一步研究其在醫療輔助上的限制。 相關文章 PubMed DOI 推理

這項研究發現,只要在提示詞中加入標註範例(in-context learning),就能大幅提升 GPT-4 標註放射科報告的準確度和一致性,尤其在複雜或主觀標籤、不同 CT 報告類型上效果更明顯。這方法讓 GPT-4 的表現更接近人工標註者,是實用又有彈性的自動化醫療標註工具。 相關文章 PubMed DOI 推理

這項韓國研究用大型語言模型分析4萬多則網路結核病提問,發現大家最常問藥物管理和副作用,像肝功能、皮膚問題、嘔吐等,也有捐血、移民、就業等新疑慮。LLMs分析比傳統方法更快又省錢,顯示結合社群資料和AI能更了解民眾健康需求,對未來醫療研究很有幫助。 相關文章 PubMed DOI 推理

本研究開發了一套結合RAG技術的聊天機器人,專門協助醫院員工查詢電子病歷(EMR)相關問題。系統用5,931筆專家驗證資料訓練,檢索準確率最高達97.6%,回應速度也很快(小於10毫秒)。這能幫助行政和帳務作業,減輕員工負擔,提升醫院效率。未來會進一步實際部署並評估長期成效。 相關文章 PubMed DOI 推理

這篇評論以 caNanoLab 為例,說明大型語言模型(LLMs)能提升癌症奈米科技資料庫的使用體驗。透過用 caNanoLab 資料訓練 LLMs,不只能讓搜尋更精準,還能提供引導式填寫和個人化協助,幫助研究人員更有效率地分析和瀏覽複雜資訊,進而加速癌症研究發展。 相關文章 PubMed DOI 推理

這項研究提出Yaoshi-RAG,把不確定性知識圖譜和大型語言模型結合,專門用來提升中醫藥食同源飲食建議的準確度和可靠性。透過建構完整的知識圖譜並用檢索增強生成技術,能產生更個人化、科學根據的建議。實驗證明,這種方法能明顯提升建議的品質和準確性,且經自動和人工評估都獲得肯定。 相關文章 PubMed DOI 推理

加護醫療常用的縮寫和簡稱容易造成溝通誤會,甚至導致用藥錯誤,約佔13%。這些縮寫在不同情境或醫院可能有不同意思。建議應統一用語、清楚紀錄、定期教育及建立流程,來降低誤解風險,提升病人安全。 相關文章 PubMed DOI 推理

作者提出 ChemLML,用 adapter 技術把訓練好的語言模型和分子模型結合,讓你能直接用文字描述產生新分子,不用重頭訓練多模態模型,省資源又好擴充。分子表示法選擇很重要,SMILES 通常表現較佳。作者也針對評估資料集提出改進,並用 ChemLML 成功產生蛋白質抑制劑和可穿膜分子,證明方法實用。 相關文章 PubMed DOI 推理

這項研究發現,目前主流大型語言模型(如ChatGPT-4.0、Google Gemini、Bing Copilot、DeepSeek)在用FIGO 2015標準解讀胎心監測圖時,表現都有限。DeepSeek無法解讀,Gemini表現較差,ChatGPT-4.0準確度中等,Bing Copilot只在判斷正常圖表時較好,對異常圖表則不理想。整體來說,LLMs在這方面還有很大進步空間。 相關文章 PubMed DOI 推理

2000到2024年,超過2萬篇流行病學期刊摘要的分析發現,平均P值和剛好低於0.05的比例都下降。這主要是因為研究設計和統計檢定力變強,而不是P hacking減少或大家不重視P值。雖然有呼籲少用P值,但其實P值變化主要反映研究品質提升。 相關文章 PubMed DOI 推理