原始文章

大型語言模型雖然能協助知識型工作,但有時會產生錯誤資訊,對藥物安全來說風險很高。我們開發的防護機制能偵測問題資料、錯誤藥品或事件名稱,並表達不確定性。這些機制已整合進針對不良事件通報微調的模型中,有效降低關鍵錯誤,提升醫療安全與符合法規。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)有潛力改變醫療實務,但臨床醫師需注意相關風險,特別是幻覺風險—即模型生成的虛假資訊。這些幻覺可能因訓練數據問題或模型特性而產生,若不妥善管理,可能導致不準確的診斷和治療建議。為了降低這些風險,已開發出一套技術框架,旨在安全地將LLMs整合進臨床實務,並推動更廣泛的機構實施。 PubMed DOI

大型語言模型(LLMs)正在改變病患用藥管理的教育方式,提供易於取得的資訊,協助醫療決策。這些AI工具能詳細說明藥物相互作用、副作用及緊急護理協議,幫助病患做出明智的用藥選擇。不過,仍有挑戰,如錯誤資訊的風險及缺乏個別病患數據的準確性問題。當病患過度依賴AI建議時,安全性問題更為突出。這篇分析探討了LLMs的能力與限制,並強調監管監督的重要性,以確保這些工具輔助而非取代專業醫療建議。 PubMed DOI

大型語言模型(LLMs)在臨床決策支持(CDS)方面潛力巨大,但目前尚未有任何產品獲得FDA認證為CDS設備。我們評估了兩款常用的LLMs,發現它們能在多種情境中提供類似CDS設備的決策支持。這一結果對於未來在臨床環境中使用LLMs,將帶來重要的監管考量。 PubMed DOI

大型語言模型像 ChatGPT 正在改變重症醫學,能自動化病歷、協助決策、個人化溝通,還能整理非結構化資料。不過,目前還有資訊正確性、倫理和醫師AI素養等挑戰。結合傳統機器學習可降低風險,導入時要謹慎並加強醫師訓練,才能提升照護品質。 PubMed DOI

大型語言模型很容易因為想「幫忙」而產生醫療錯誤資訊,尤其遇到不合理的提問時。研究發現,經過優化提問和微調訓練後,模型能更好拒絕不合邏輯的請求,錯誤資訊大幅減少,且不影響整體表現。這顯示訓練時要重視邏輯一致性,才能確保醫療應用安全。 PubMed DOI

近期LLM在醫療應用上進步很快,但輸入多餘的社經細節(如種族、收入、LGBT+身份)可能讓結果產生偏見,甚至加劇健康不平等。為此,作者提出EquityGuard框架,能偵測並減少這些不公平風險,實驗證明能讓不同族群獲得更公平的醫療建議。 PubMed DOI

這項研究提出一套新框架,能提升大型語言模型(LLM)生成臨床紀錄的準確性與安全性。透過錯誤分類、反覆評估、臨床安全性檢查和CREOLA介面,分析近1.3萬句臨床標註句子後,發現幻覺率1.47%、遺漏率3.45%。經優化後,重大錯誤率甚至比人類醫師還低,顯示這方法有助於提升LLM臨床應用的安全性。 PubMed DOI

大型語言模型在醫療文件撰寫和決策輔助上很有潛力,但因準確性、驗證、偏見和隱私等問題,現階段還不適合完全自動化臨床應用。未來要安全有效導入,需加強研究、訂定明確規範,並維持人工監督。 PubMed DOI

認知偏誤常讓醫療決策出錯,對病人造成傷害。大型語言模型(LLMs)進入臨床後,可能會延續甚至加劇這些偏誤,但也有機會用客觀數據協助減少錯誤。本文討論 LLMs 如何影響醫療決策中的認知偏誤,以及它們可能帶來的風險與助益。 PubMed DOI

調查發現,許多生物統計學家已用大型語言模型(LLMs)提升程式撰寫和寫作效率,但因錯誤和可靠性問題,仍需謹慎驗證。多數人希望有系統訓練和實用指引。研究也提出八大原則,協助生物統計學家負責任且有效運用LLMs。 PubMed DOI