LLM 相關三個月內文章 / 第 72 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這項研究依AAMC指引,提出五步驟策略,協助Quillen醫學院負責任地把生成式AI納入課程,包括調查學生AI使用、訂定專業規範、提供公平機會、結構化學習活動及AI倫理訓練。結果顯示,學生使用AI明顯增加,多數認為有助學習,但部分人質疑其正確性。這做法有助於兼顧學術誠信與AI應用推廣。 相關文章 PubMed DOI 推理

這篇研究發現,傳統文字比對方法在標準化腫瘤名稱時表現不佳,而用LLM/transformer的文字嵌入模型,準確率大幅提升到約69%。如果把表現最好的模型結合起來,效果還會更好。這證明嵌入模型很適合處理生醫術語標準化,CANTOS框架也讓這類評測更容易重現。 相關文章 PubMed DOI 推理

這項研究用台灣2018到2022年急診專科醫師考題測試GPT-4,發現它答對率約60%,圖片判讀還不錯,但遇到診斷和臨床決策時表現就變差。沒有特定題型特別影響結果。雖然GPT-4有潛力,但目前還不適合直接用在急診決策,未來還需要再改進才能安全協助醫師。 相關文章 PubMed DOI 推理

基因組註解結合自動化工具和人工校訂,但人工速度慢、難擴展。作者提出「人機協作基因組註解(HAICoGA)」框架,融合專家知識與AI(如大型語言模型),提升準確率和效率,並討論推動這種協作時的挑戰與待解決問題。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4o在回答精索靜脈曲張相關問題時,整體表現不錯,約有九成回答達到良好或高品質,特別是在一般資訊和指引問題上較為可靠。不過,針對治療相關問題,回答內容有時不夠一致或深入,建議查詢時仍需搭配專業醫師意見。 相關文章 PubMed DOI 推理

生成式 AI 像 ChatGPT 雖能提供個人化健康資訊,但也容易加深「確認偏誤」,讓使用者只相信自己原本的想法,甚至傳播錯誤訊息。研究指出,AI 的設定和使用方式都會影響偏誤程度,光靠技術修正不夠,還要加強數位素養、批判思考教育和法規,才能保障大家獲得正確健康資訊。 相關文章 PubMed DOI 推理

這篇研究比較了YOLOv11、EasyOCR和GPT-4o在醫療影像PHI偵測上的表現。結果發現,針對不同步驟選用專門的視覺或語言模型,能在準確度、速度和成本間取得最佳平衡。GPT-4o不僅提升OCR效果,也讓PHI偵測更穩健,適合用於端對端去識別化流程。 相關文章 PubMed DOI 推理

這項研究測試兩款在地端部署的 Llama 語言模型,從放射科報告中擷取淋巴瘤進展資訊,同時保障病人隱私。兩款模型都能正確處理 65 位病人的資料,其中 Llama-4-Scout-17B-16E-Instruct 在疾病分期和治療反應判斷上表現較佳。雖然模型未產生虛構疾病部位,但在判讀治療後疾病狀態時較困難。整體來說,這類模型有助簡化醫療文件,但還需進一步優化才能廣泛應用。 相關文章 PubMed DOI 推理

這項研究發現,ChatGPT-4在肩膀MRI影像測量AHD的表現,準確性和一致性都不如有經驗的放射科醫師,測量結果變異也比較大。顯示目前AI像ChatGPT-4還不適合用在精密的醫學影像測量,未來還需要再改進。 相關文章 PubMed DOI 推理

這個專案比較了主流語言模型在萃取和推論癌症病理報告(像是癌症類型、分期、預後)上的表現。經過零樣本測試後,團隊又微調出 Path-llama3.1-8B 和 Path-GPT-4o-mini-FT 兩款模型,這兩個模型在相關任務上表現最好。 相關文章 PubMed DOI 推理