原始文章

這項研究探討如何將人工智慧(AI)與臨床規則基礎(RB)系統結合,以預測疫苗猶豫,目的是提升病人激勵計畫的效果。研究利用974,000名美國病人的數據,透過機器學習(ML)和臨床規則的結合,提升預測準確性並保持決策透明。結果顯示,混合方法特別有效,當信心高時依賴RB結果,信心低時則依賴ML預測,這樣不僅提高準確性,也增強醫療提供者之間的信任。 PubMed DOI


站上相關主題文章列表

這項研究專注於從文本中提取與COVID-19疫苗相關的不良事件資訊,對疫苗安全性監測至關重要。研究比較了大型語言模型(LLMs)和傳統深度學習模型的表現,並探討了模型集成的優勢。使用了VAERS、Twitter和Reddit的數據,識別疫苗、接種和不良事件等實體。多個模型經過微調,最佳集成結果顯示「疫苗」的F1分數為0.878,「接種」為0.930,「不良事件」為0.925,整體微平均F1分數為0.903。研究強調了微調和集成方法在提升性能上的重要性,推進了生物醫學領域的自然語言處理。 PubMed DOI

將大型語言模型(LLMs)整合進抗生素處方的醫療決策中,逐漸受到重視,但面臨挑戰。首先,LLMs在臨床環境中的應用需更深入的醫療理解,因為它們的建議直接影響病患健康。其次,專業知識悖論顯示醫療人員可能過度依賴AI,影響臨床判斷。因此,AI應該輔助而非取代人類決策。最後,LLMs的錯誤風險需謹慎對待,必須建立健全的驗證流程,確保其作為輔助工具的角色。 PubMed DOI

這項研究探討了人工智慧(AI)輔助對醫生在胸痛分診中的決策影響,特別是人口統計偏見。50位美國醫師觀看白人男性或黑人女性病人的視頻,並在接受GPT-4建議前後回答臨床問題。結果顯示,AI輔助使白人男性病人的決策準確率從47%提升至65%,黑人女性則從63%提升至80%,改善幅度均為18%。研究未加劇偏見,顯示AI能提升決策並確保公平醫療。90%的醫生認為AI未來將在臨床決策中扮演重要角色,顯示其解決不平等問題的潛力。 PubMed DOI

這項研究探討如何利用臨床實踐指導(CPGs)來強化大型語言模型(LLMs),以改善針對 COVID-19 的門診治療決策。研究開發了三種整合 CPGs 的方法:二元決策樹、程式輔助圖形構建和思考鏈少量提示,並以零樣本提示作為基準。結果顯示,所有 LLMs 在有 CPG 增強的情況下表現優於零樣本提示,特別是二元決策樹在自動評估中表現最佳。這顯示出帶有 CPG 的 LLMs 能提供更準確的治療建議,未來應用潛力廣泛。 PubMed DOI

人工智慧(AI)正在改變醫療保健,但也帶來了倫理和法規挑戰。本研究旨在建立一個可信賴的AI框架,強調透明度和公平性,並提供可行策略以在臨床中實施。透過文獻回顧,發現目前AI治理存在缺口,提出了適應性監管框架和可量化的可信度指標。研究強調多方參與和全球合作的重要性,以確保AI創新能解決醫療需求。實現可信賴的AI需要技術進步、倫理保障和持續合作,促進負責任的創新並提升病人結果。 PubMed DOI

這項研究探討人工智慧(AI)在改善傳染病臨床決策中的角色,特別是抗生素處方的指導。透過系統性文獻回顧,評估了AI技術在抗微生物管理中的有效性。結果顯示,十七項研究中,機器學習作為臨床決策支持系統(CDSS)能有效預測抗藥性並優化抗生素使用;而六項大型語言模型的研究則顯示處方錯誤率較高,需精確提示才能獲得準確回應。研究強調傳染病專家的重要性,並指出AI需經過嚴格驗證才能有效整合進臨床實踐。 PubMed DOI

AI熱潮讓機器學習和統計學在預測建模上備受關注。作者認為這兩者其實是互補的,方法和技術也有很多相似之處。若能整合兩個領域,有助提升預測品質,對病人和醫療人員都更有幫助。 PubMed DOI

雖然生成式AI在臨床推理上有潛力,但目前缺乏真正的邏輯推理能力,且常用過時或不符本地的資料,可靠性令人擔憂。要讓醫療AI值得信賴,必須結合最新、在地資訊、專業醫師合作,以及透明可解釋的決策流程,才能實現安全、合乎倫理、以病人為中心的應用。 PubMed DOI

單靠大型語言模型(LLMs)做高風險決策有風險,因為它們會出現幻覺和偏誤。這項研究提出結合醫師和LLM的混合系統,分析四萬多個診斷案例後發現,醫師和LLM合作比單獨使用任何一方都更準確,因為他們各有不同的優缺點。這種混合方式能提升醫療診斷的準確率。 PubMed DOI

這項研究發現,RAG AI模型在回答燒燙傷處理問題時,不論用高或低被引用的研究,答案都同樣正確、易讀且快速。納入低被引用的文獻,有助於擴大臨床觀點、減少偏見,讓燒燙傷照護更創新、更完善。 PubMed DOI