全球放射科醫師短缺問題日益嚴重,急需創新解決方案,人工智慧(AI)成為一個有潛力的工具。然而,醫療專業人員對AI的信任不足,主要因為許多AI模型運作不透明,稱為「黑箱」。可解釋的人工智慧(XAI)旨在提供透明度,幫助使用者理解AI決策過程。
這項調查是首個針對醫療可解釋用戶介面(XUI)的研究,分析了42個介面,強調有效傳達資訊的重要性。研究提出介面設計屬性分類法,並指出未來研究方向,包括醫療影像的反事實解釋需求及大型語言模型的潛力。提升AI可解釋性對建立信任及臨床整合至關重要。
PubMed
DOI