原始文章

「不造成傷害」的原則源自希波克拉底倫理學,仍是醫學的基本準則,尤其在AI迅速發展的當下。AI影響醫療的診斷、治療、研究等各方面,臨床醫師需理解AI的基本原則,以批判性評估AI結果。文章探討AI對醫患關係的影響,並提出將AI整合進臨床實踐的建議,強調倫理原則如仁慈和公正的重要性。建議包括適當的模型訓練和醫療界參與AI發展,以確保倫理優先於商業利益。 PubMed DOI


站上相關主題文章列表

討論了在醫學教育中使用大型語言模型(LLMs)所面臨的道德挑戰,包括對於AI幻覺、隱私風險和透明度問題的擔憂。建議基於八項原則為醫學教育中的LLMs創建一個特定的道德框架,以確保整合LLMs時能負責任且安全,平衡技術進步與道德考量。 PubMed DOI

大型語言模型(LLMs)在專業考試中表現出色,讓人對其在臨床實踐中的應用感到興奮。不過,這需要臨床醫師技能的轉變。我們的回顧指出,醫療專業人員需發展以下能力: 1. **跨學科訓練**:結合醫學知識與AI技術的理解。 2. **批判性思維**:評估AI生成內容的能力。 3. **溝通技巧**:有效與患者及團隊溝通AI見解。 4. **倫理與專業精神**:重視AI使用的倫理影響。 5. **適應能力**:持續學習以跟上AI進步。 這些領域的重視將幫助醫師有效利用LLMs,提升患者治療結果並降低風險。 PubMed DOI

這篇論文從原則主義的角度探討大型語言模型(LLMs)在醫療中的倫理影響,強調四個關鍵原則:行善、不傷害、自主權和正義。 1. **行善**:LLMs能協助行政工作及提供臨床決策資訊,改善病人治療結果。 2. **不傷害**:使用LLMs有風險,需制定有效的風險管理策略。 3. **自主權**:若LLMs影響病人護理,應告知病人以獲得知情同意,並提供替代方案。 4. **正義**:LLMs可標準化護理,減少偏見,改善資源不足地區的醫療技能,解決健康不平等問題。 總結認為,若妥善管理風險,LLMs的使用在倫理上是合理的。 PubMed DOI

生成式人工智慧(AI)在醫療保健中有潛力提升診斷準確性和個性化治療,但其快速且未受監管的使用引發了多項倫理問題。主要問題包括AI可能產生誤導性資訊,導致誤診,強調了醫師監督的重要性。此外,許多大型語言模型缺乏透明度,可能削弱病人和醫療提供者的信任。AI的監管不足也使得病人數據安全和合成數據的有效性成為挑戰。為確保AI的安全使用,需建立嚴格的數據安全標準和跨學科的監督機制,以保障病人的安全和信任。 PubMed DOI

將大型語言模型(LLMs)整合進電子健康紀錄(EHRs)中,雖然能提升數據分析和病患照護,但也帶來隱私、法律及操作上的挑戰。主要問題包括病患未經同意的數據使用、缺乏監管、AI醫療失誤責任不明、數據偏見及重用風險。為了保護病患,特別是脆弱族群,臨床醫師應推動病患教育、倫理實踐及健全監督,確保LLMs的使用既安全又有效。 PubMed DOI

人工智慧(AI)將對許多工作產生重大影響,特別是在醫療保健領域,尤其是癌症治療。雖然AI在診斷和放射腫瘤學中展現潛力,但仍需證據證明其臨床有效性。支持者強調人類監督的重要性,然而過度依賴AI可能導致技能退化。生成式AI的進展擴大了應用範圍,但需進行獨立研究以驗證效果。算法醫學應像新藥一樣受到重視,並需確保數據集的多樣性。此外,教育計畫和倫理考量也必須跟上,以確保病人護理的質量。 PubMed DOI

大型語言模型正快速改變醫療現場,不只協助診斷、提升衛教,也讓臨床流程更有效率。導入時要重視好用的介面、醫師訓練、AI與醫護合作,並落實隱私與倫理規範。未來會朝多模態、強化安全及結合機器人發展,但最重要的還是以病患安全和人本設計為核心,輔助醫療專業而非取代。 PubMed DOI

大型語言模型在醫療文件撰寫和決策輔助上很有潛力,但因準確性、驗證、偏見和隱私等問題,現階段還不適合完全自動化臨床應用。未來要安全有效導入,需加強研究、訂定明確規範,並維持人工監督。 PubMed DOI

雖然生成式AI看似讓醫學人文變得不重要,但其實AI本身就是一種敘事工具,醫學人文在引導AI於醫療倫理和實務應用上反而更關鍵。作者強調,敘事醫學和人文學科能提供評估與負責任整合AI的框架,AI應該輔助而非取代醫學中的敘事實踐。 PubMed DOI

大型語言模型(LLMs)在重症醫療上應用快速成長,能提升病人管理、診斷、紀錄和醫療教育等,但也有偏見、可靠性和透明度等問題。導入臨床時,需嚴格驗證,確保安全與倫理,才能真正發揮AI在醫療的正面影響。 PubMed DOI