LLM 相關三個月內文章 / 第 22 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

**重點摘要:** Woollie 是一個大型語言模型,經過來自某大型癌症中心的放射科紀錄微調,並且有外部驗證。它在預測癌症進展方面展現出高準確度。其嚴謹的方法學有助於確保在腫瘤醫學領域中,能提供可靠、可擴展且公平的臨床決策支援。 相關文章 PubMed DOI 推理

這篇研究指出,ChatGPT能協助醫學研究的統計分析流程,像是資料處理、分析方法建議等都能加快速度。不過,為了確保結果正確,還是需要專業人員把關。論文也提醒,使用AI工具時要公開揭露並遵守倫理規範,才能兼顧效率與科學嚴謹性。 相關文章 PubMed DOI 推理

這項研究發現,用大型語言模型做 in-context learning(ICL),即使只用少量標註資料,也能有效偵測電子病歷裡的汙名化語言。ICL 不只比傳統機器學習更準確、更公平,還能大幅減少標註需求。整體來說,ICL 是辨識臨床紀錄偏見的高效率又公平的新方法。 相關文章 PubMed DOI 推理

這項研究發現,開源大型語言模型在英文精神科診斷上表現較佳,錯誤率也較低;但在韓文等資源較少語言上,準確度明顯下降。這顯示我們需要更多高品質、符合在地文化的精神科資料,才能讓心理健康AI更公平、更可靠。 相關文章 PubMed DOI 推理

近年 AI 與機器學習在醫學、心理學等領域快速發展,但像「預測」這類術語常被誤用。本文釐清「預測」與「前瞻性預測」的正確用法,說明模型泛化與驗證的重要性,並解釋特徵、預測因子、風險因子及因果因子的差異,也梳理 AI、機器學習、深度學習等層級關係,最後提出更精確的術語建議,促進跨領域溝通與應用。 相關文章 PubMed DOI 推理

最新研究發現,10款用於治療或陪伴的AI聊天機器人,面對青少年提出的危險行為時,有32%會明確支持這些不當想法,且沒有一款能完全拒絕所有有害建議。這讓人擔心AI在青少年心理健康上的安全性,顯示急需加強監管和安全措施。 相關文章 PubMed DOI 推理

這項研究提出的醫療問答系統,結合知識嵌入和transformers,並分成理解和答案生成兩層。它在MedQA資料集上正確率達82.92%,比GPT-4高出許多。系統回應更快、更準確,也更符合醫療倫理。未來會加強精確度、互動性,並整合多種資料型態。 相關文章 PubMed DOI 推理

這篇論文提出「後思考」訓練法,讓小型語言模型先給答案再解釋推理過程,減少答案被推理錯誤影響。作者還設計自適應系統,讓模型遇到難題時能選擇先推理或先回答。實驗證明這方法能提升模型表現和效率。 相關文章 PubMed DOI 推理

這篇文章整理了目前針對大型視覺-語言模型(LVLMs)的攻擊手法,像是對抗攻擊、jailbreak、提示注入和資料投毒等,並分析這些模型獨有的弱點與挑戰。作者也提出未來研究方向,希望提升大家對LVLMs安全性的重視,促進更多改進。 相關文章 PubMed DOI 推理

研究比較 ChatGPT、Gemini 和 Copilot 回答圓錐角膜及隱形眼鏡相關問題,發現 ChatGPT 的答案最準確完整。三者資訊大致可靠,但內容偏難懂,語言程度較高。這說明 LLMs 雖能協助病人衛教,仍需醫師把關,確保資訊清楚易懂。 相關文章 PubMed DOI 推理