原始文章

在2024年,美國法律學會更新了醫療過失的評估標準,從以慣常醫療實踐為主,轉向更以病人為中心的方法。新標準根據具備能力的臨床醫師的技能來定義合理的醫療照護,並允許陪審團在慣常做法不符合當代標準時進行推翻。這一改變強調證據基礎的實踐指導、知情同意及醫生與病人之間的溝通,旨在平衡病人安全、醫生自主權及法律系統的角色,鼓勵醫療專業人員重新思考醫療過失的評估方式。 PubMed DOI


站上相關主題文章列表

這篇論文從原則主義的角度探討大型語言模型(LLMs)在醫療中的倫理影響,強調四個關鍵原則:行善、不傷害、自主權和正義。 1. **行善**:LLMs能協助行政工作及提供臨床決策資訊,改善病人治療結果。 2. **不傷害**:使用LLMs有風險,需制定有效的風險管理策略。 3. **自主權**:若LLMs影響病人護理,應告知病人以獲得知情同意,並提供替代方案。 4. **正義**:LLMs可標準化護理,減少偏見,改善資源不足地區的醫療技能,解決健康不平等問題。 總結認為,若妥善管理風險,LLMs的使用在倫理上是合理的。 PubMed DOI

將人工智慧(AI)和大型語言模型(LLMs)整合進德國醫療系統,能提升病人護理和臨床研究,但因數據保護法律複雜,實際應用仍有限。關鍵因素包括遵守GDPR、獲得病人同意、建立數據處理協議、確保醫療監督及提供者透明度。隨著AI技術進步,LLMs的應用潛力將增強,但需明確法律和倫理指導,以保障病人權益和數據安全。 PubMed DOI

將大型語言模型和生成式人工智慧應用於醫療領域,帶來新的法律風險,主要包括算法偏見和數據安全問題,可能侵犯個人權益。此外,醫療數據的管理和商業化也引發所有權爭議。隨著人工智慧的深入應用,醫療傷害的責任判定變得更複雜。為應對這些挑戰,需實施算法審查、加強數據管理、明確數據所有權及建立授權協議,並根據具體過失公平分配責任。 PubMed DOI

將人工智慧(AI)融入法律程序和專家證據中,既有機會也有挑戰。AI工具在各領域的普及,使得人類專業知識與AI分析的界線變得模糊。主要挑戰在於確認AI生成證據的可靠性,法院需考量專家意見是否受到AI影響。法律系統可能需重新評估專家證詞中技術的使用,並建立AI輔助證據的可接受性標準。此外,法律框架也需調整,以解決AI對專家意見的貢獻所帶來的責任問題。 PubMed