原始文章

這項研究探討如何將人工智慧(AI)與臨床規則基礎(RB)系統結合,以預測疫苗猶豫,目的是提升病人激勵計畫的效果。研究利用974,000名美國病人的數據,透過機器學習(ML)和臨床規則的結合,提升預測準確性並保持決策透明。結果顯示,混合方法特別有效,當信心高時依賴RB結果,信心低時則依賴ML預測,這樣不僅提高準確性,也增強醫療提供者之間的信任。 PubMed DOI


站上相關主題文章列表

研究發現,AI模型對醫師診斷急性呼吸衰竭有影響。看標準AI模型醫師表現較好,但看偏見AI模型表現下降。即使有解釋,偏見AI模型也無法改善。標準AI提升準確性,偏見AI則降低。 PubMed DOI

循證醫學旨在透過利用最佳可用證據來指導醫療決策,以提升醫療品質。醫學證據量的增加使得收集和綜合資訊面臨挑戰。生成式人工智慧,如大型語言模型,在協助這個過程方面展現潛力,但確保這些模型的負責任性、公平性和包容性是複雜的。這個觀點探討了生成式人工智慧在自動摘要醫學證據方面的可靠性。 PubMed DOI

近期LLMs如ChatGPT在醫療保健領域受歡迎,但也帶來安全和倫理風險。為因應此挑戰,提出新方法評估LLMs在臨床護理中的可行性,強調安全、個人化護理和倫理。透過跨學科知識整合和文獻回顧,確定關鍵評估領域。由專家進行同行評審,確保科學嚴謹。在臨床腫瘤護理中評估九種LLMs後,有些被推薦使用,有些謹慎使用或不可使用。推薦使用特定領域的LLMs可支持醫療專業人員的決策。 PubMed DOI

藥物不良反應在醫療保健中很重要,FDA用人工智慧評估報告。但人工智慧演算法開發和應用有挑戰,專家對演算法的信任很重要。創新擴散理論解釋為何有些人接受人工智慧,有些不。臨床醫師對藥物事件決策不清,難開發可信人工智慧。未來研究應改善因果推論、演算法不確定性、可重複性,並明確因果推論認知框架,增進人們對藥物安全人工智慧的信任。 PubMed DOI

這項研究探討人工智慧(AI)在醫療領域的風險,並提出政策建議以減輕這些風險,同時發揮AI的優勢。AI若正確使用,能對醫療產生重大影響,但其快速普及也帶來倫理、法律及社會問題。研究指出,數據偏見可能導致護理不平等,且AI的可解釋性和問責性問題可能影響病人安全。報告建議提高醫療人員的AI素養、加強隱私保護,並將倫理原則融入AI設計,以確保負責任且公平地使用AI,提升醫療品質。 PubMed DOI

這項研究探討五種知識管理方法在臨床決策支持系統中的應用,目的是提升醫療服務並追求零錯誤。方法包括: 1. **影像數據模式識別**:利用機器學習分析醫學影像,快速處理大量數據,但需克服影像質量和標註數據的挑戰。 2. **結構化醫療數據挖掘**:從電子健康紀錄中提取見解,提供即時分析,但可能面臨數據孤島問題。 3. **文本挖掘**:從醫學文獻中提取資訊,保持系統更新,但需處理大量非結構化數據。 4. **可計算知識設計**:創建正式的醫學知識表示,便於整合,但需持續維護。 5. **大型語言模型**:利用語言模型理解臨床知識,靈活但可能面臨準確性問題。 研究評估這些方法的優缺點,旨在指導有效的CDS系統開發。 PubMed DOI

臨床決策中的認知偏誤可能導致誤診和病人不良結果。本研究探討大型語言模型(LLMs)如何透過多代理框架來減少這些偏誤。研究人員模擬臨床決策,創建不同角色的代理進行對話,以提高診斷準確性。分析16個因認知偏誤而誤診的案例,測試各種代理組合。使用GPT-4的代理包括決策者、挑戰偏誤的魔鬼代言人等。結果顯示,初始診斷準確率為0%,但經過討論後,最佳框架的準確率提升至76%。這顯示LLM驅動的對話在醫療情境中具潛力。 PubMed DOI

這項研究專注於從文本中提取與COVID-19疫苗相關的不良事件資訊,對疫苗安全性監測至關重要。研究比較了大型語言模型(LLMs)和傳統深度學習模型的表現,並探討了模型集成的優勢。使用了VAERS、Twitter和Reddit的數據,識別疫苗、接種和不良事件等實體。多個模型經過微調,最佳集成結果顯示「疫苗」的F1分數為0.878,「接種」為0.930,「不良事件」為0.925,整體微平均F1分數為0.903。研究強調了微調和集成方法在提升性能上的重要性,推進了生物醫學領域的自然語言處理。 PubMed DOI

這項研究開發了一個基於檢索增強生成的醫生推薦模型(RAGPR),旨在提升網路醫療服務中的個人化推薦。研究針對排班人員手動分診的限制,使用廈門大學第一附屬醫院的646,383份諮詢紀錄進行評估。結果顯示,SBERT和OpenAI的表現優異,F1分數分別達到95%和96%。在大型語言模型中,GPT-4o表現最佳,F1分數為95%。整體而言,RAGPR模型在提升醫療服務的準確性和個人化方面展現良好潛力,提供可擴展的病患與醫生匹配解決方案。 PubMed DOI

將大型語言模型(LLMs)整合進抗生素處方的醫療決策中,逐漸受到重視,但面臨挑戰。首先,LLMs在臨床環境中的應用需更深入的醫療理解,因為它們的建議直接影響病患健康。其次,專業知識悖論顯示醫療人員可能過度依賴AI,影響臨床判斷。因此,AI應該輔助而非取代人類決策。最後,LLMs的錯誤風險需謹慎對待,必須建立健全的驗證流程,確保其作為輔助工具的角色。 PubMed DOI