LLM 相關三個月內文章 / 第 136 頁
可選擇其它分類: 一週新進文章 腎臟科 一般醫學 SGLT2i GLP1

這篇論文探討 GPT-4o 等大型語言模型在提升芬蘭病人安全事件通報上的應用。研究發現,醫師和主管機關都希望有自動化 AI 工具來簡化流程、提升分析效率。初步測試顯示 LLMs 能自動產生結構化通報,但在內容完整性和事件原因判斷上還有待加強。整體來說,LLMs 很有潛力,但全面推行前還需進一步研究。 相關文章 PubMed DOI 推理

初步研究顯示,本地大型語言模型聊天機器人「SAM」在健康諮詢上操作簡單,特別適合快速查詢資訊(平均SUS 4.7/5)。雖然SAM能提升病患獲取健康資訊的便利性,但資料安全、準確性和偏見仍待克服。若能改善並強化個人化回覆,有助提升病患參與和健康成效。 相關文章 PubMed DOI 推理

這項研究發現,Meta Llama 3.3-70B模型在擷取泌尿科臨床紀錄的徵象、症狀及ICD-10代碼時,若在提示中加入ICD-10定義並限制模型推測,表現最佳。其徵象/症狀擷取F1-score達0.92,ICD-10代碼指派F1-score為0.89,顯示準確度相當高。 相關文章 PubMed DOI 推理

重點摘要: 我們使用 COSTAR 方法來設計 LLM 提示詞,幫助神經科醫師能更有效地與多發性硬化症(pwMS)患者溝通。 相關文章 PubMed DOI 推理

研究發現,運用進階提示技巧(如角色扮演、思考鏈)的GPT-4o對話代理,在解釋和分析醫療人員污名化議題時表現最佳。相比之下,個人化GPT模型在治療和風險因子主題上效果較差。進階提示能讓GPT代理提供更細緻的資訊,有助於在資源有限時,作為教育和減少醫療污名化的有效工具。 相關文章 PubMed DOI 推理

即使回應內容一模一樣,人們還是覺得人類的同理心比AI更有支持感、情緒也更正面。只要懷疑是AI回應,感受就會變差。這種現象在不同情境和AI模型下都一樣,大部分人也偏好跟人類互動來獲得情感支持,顯示大家對人類和AI展現同理心的看法有明顯差異。 相關文章 PubMed DOI 推理

研究比較六種大型語言模型回答糖尿病視網膜病變問題的表現,發現正確率都很高,ChatGPT-4.0表現最好,自我修正後分數更高。不過,不同模型的回答有時難懂。整體來說,這些AI在眼科應用很有潛力,但臨床使用前還需加強可讀性並持續驗證。 相關文章 PubMed DOI 推理

這項前導研究發現,GPT-4o用客製化日文提示詞,能準確且一致地從日本臨床研究文件中擷取倫理資訊,未來有望成為協助IRB倫理審查的AI工具。此工具僅輔助評估,不負責撰寫文件。研究限制包括缺乏標準答案、只有一位評估者,且未分析評分一致性。 相關文章 PubMed DOI 推理

這篇論文發現,給大型語言模型設定不同角色(如性別、職業、信仰)會明顯影響它們的回答,效果比單純改寫提示詞或不設定角色還要大。而且有些角色帶來的影響,在不同模型間也會出現類似的行為。 相關文章 PubMed DOI 推理

RUGGED 是一套結合生醫文獻、知識庫和圖形模型的工具,利用 RAG 技術和大型語言模型,幫助研究人員找出藥物與疾病的關聯,並降低模型產生錯誤答案的機率。臨床應用上,RUGGED 能推薦和分析心臟疾病相關藥物,讓生醫研究更精準實用。 相關文章 PubMed DOI 推理