LLM 相關三個月內文章 / 第 48 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

大型語言模型在臨床應用時,遇到帶有錯誤細節的提示詞,常會產生或加劇錯誤資訊(幻覺),六種模型在一半以上案例都出現這問題。雖然用特製提示詞能降低幻覺發生率,但還是無法完全避免,且調整temperature沒什麼幫助。這代表臨床使用時,還是有一定風險存在。 相關文章 PubMed DOI 推理

**重點整理:** AI正在徹底改變重症醫療,不僅提升了風險評估的準確度,也讓治療更個人化。不過,目前還有像是資料品質、模型透明度、臨床流程整合,以及倫理相關的問題需要克服。持續的研究和監督對於AI在臨床實務中安全且有效的應用是不可或缺的。 相關文章 PubMed DOI 推理

這項研究發現,傳統搜尋引擎在資訊來源、更新速度和連結提供上較優,但生成式AI給的答案更相關、品質也較高,只是很少附上來源。整體可信度差不多,但AI缺乏連結和參考資料,讓使用者較難判斷資訊是否可靠。 相關文章 PubMed DOI 推理

這項研究發現,四種大型語言模型(LLM)在選擇正確影像檢查上,表現和多數臨床醫師差不多,甚至有時更好,尤其是DeepSeek-R1。LLM的建議很一致,重複測試也很穩定,和資淺放射科醫師的準確度相當。這顯示LLM未來有機會成為放射科醫師決策的好幫手。 相關文章 PubMed DOI 推理

這篇論文提出了 DialogueLLM,一款專為對話情緒辨識微調的大型語言模型。它能理解對話脈絡並結合情緒知識,表現比現有模型更好,甚至在情緒智力測驗上勝過多數人類,而且用一般硬體就能跑得動。 相關文章 PubMed DOI 推理

這篇回顧分析指出,語言學習聊天機器人有四種互動風格,會影響學習者參與。大型語言模型讓機器人在寫作、口說和情感支持上更有彈性,但促進高層次思考的功能還不夠。幻覺、偏見和倫理等問題討論不足。有效運用關鍵在於設計提示、建立情感連結,以及老師的倫理把關,不只是靠技術進步。 相關文章 PubMed DOI 推理

這份研究訪談21位臨床社工,發現大家覺得像ChatGPT這類大型語言模型能幫忙減輕文書負擔、激發想法,但也擔心機密性、同理心不足和細節掌握不夠。他們認為LLMs只能當輔助,不能取代人類,強調要遵守倫理和維護案主關係。建議應加強訓練並訂定明確倫理規範,讓社工安心使用。 相關文章 PubMed DOI 推理

這項研究用微調過的LLaMA-3大型語言模型,自動評分自傳式記憶敘述,能分辨情節性和非情節性細節。模型在284位參與者資料上訓練,準確度接近人工評分(最高相關係數r=0.87),也能反映年齡相關的記憶變化。這個工具以Jupyter Notebook提供,大幅提升分析效率,免去人工評分。 相關文章 PubMed DOI 推理

研究發現,GPT類大型語言模型(LLM)在評估自殺意念風險時,與行為健康專家有65.6%的一致率,且在臨床介入決策上同意率高達92%。這顯示LLM有潛力協助數位健康平台辨識自殺風險,但仍需更多驗證與倫理審查。 相關文章 PubMed DOI 推理

作者提出六層級評估架構,從可重複性到可替代性,幫助系統性檢驗生技和醫療 AI 的安全與效能。這套方法適用於傳統與生成式 AI,並有明確定義與測試流程,能提升醫療 AI 的信賴度與可靠性。 相關文章 PubMed DOI 推理