原始文章

這篇文章探討大型語言模型(如Claude、Bard、GPT-3.5和GPT-4)中嵌入的價值觀如何影響初級醫療的倫理決策。研究使用Schwartz的價值觀理論,評估這些模型的價值觀輪廓,並與超過53,000名受訪者的數據進行比較。結果顯示,每個模型的價值觀獨特,偏向普遍主義和自我導向,可能反映西方中心的偏見。這些模型的建議顯示出其內在價值觀對決策的影響,因此在臨床應用前需謹慎考量,並調整以符合多元文化觀點。 PubMed DOI


站上相關主題文章列表

研究評估了GPT-4在處理複雜醫學倫理情境時的表現。倫理學家發現模型在技術清晰度方面表現不錯,但在深度和可接受性方面有待提升。模型在微妙的倫理困境和道德原則應用上遇到困難。研究強調了在臨床使用GPT-4前需要持續評估和改進。 PubMed DOI

研究發現GPT-4在回答醫學倫理問題上有潛力,但在處理實際倫理困境上仍有改進空間。整合大型語言模型到醫學倫理決策有潛力,但需謹慎。建議運用模型挖掘健康記錄,或作為倫理教育工具,但需注意其限制。 PubMed DOI

研究使用Schwartz的基本價值理論評估大型語言模型(LLMs)中的價值構念,發現LLMs存在動機偏見,與人類價值有所偏離,對心理健康應用存在道德疑慮。研究強調透明度和對齊過程的重要性,以確保LLMs在提供心理健康護理時公平。 PubMed DOI

近期LLMs如ChatGPT在醫療保健領域受歡迎,但也帶來安全和倫理風險。為因應此挑戰,提出新方法評估LLMs在臨床護理中的可行性,強調安全、個人化護理和倫理。透過跨學科知識整合和文獻回顧,確定關鍵評估領域。由專家進行同行評審,確保科學嚴謹。在臨床腫瘤護理中評估九種LLMs後,有些被推薦使用,有些謹慎使用或不可使用。推薦使用特定領域的LLMs可支持醫療專業人員的決策。 PubMed DOI

討論了在醫學教育中使用大型語言模型(LLMs)所面臨的道德挑戰,包括對於AI幻覺、隱私風險和透明度問題的擔憂。建議基於八項原則為醫學教育中的LLMs創建一個特定的道德框架,以確保整合LLMs時能負責任且安全,平衡技術進步與道德考量。 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療上有好處,但也引起道德疑慮。研究探討了LLMs在醫學上的道德議題,提到了優點如數據分析和決策支持,也指出了公平性、偏見和隱私等疑慮。強調在醫療上使用LLMs時,需要道德指導、人類監督和批判性評估。 PubMed DOI

這項研究探討大型語言模型(LLMs)如何協助對失去決策能力的病人進行臨床決策。研究指出,代理人和醫師在尊重病人意願時面臨多重挑戰,如壓力和對病人價值觀的誤解。研究模擬了50位需要緊急醫療決策的病人情境,並為每位病人創建了五種價值概況。結果顯示,LLMs在88%的案例中準確提取治療資訊,並獲得專家良好評價,特別是當病人價值以自由文本呈現時。這顯示LLMs可能成為尊重無行為能力病人意願的有用工具。 PubMed DOI

這項研究探討大型語言模型(LLMs)在醫療領域的倫理問題,特別是臨床醫師的看法。研究分析了3,049則來自醫師討論區的帖子,找出14個關鍵主題,分為四大類:LLMs的倫理問題、算法治理、對健康公平的影響,以及使用者與LLM的互動。分析指出了決策透明度、公平性、隱私等複雜議題。研究呼籲持續進行倫理評估,並建議針對LLMs的使用制定專門的治理,以提升臨床結果的倫理性。 PubMed DOI

這篇評論探討了大型語言模型(LLMs)在眼科應用的倫理影響,分析了47篇相關文章。雖然LLMs在教育、研究、臨床決策和手術協助等方面有潛力,但也存在準確性不足、可能產生有害建議及數據隱私等倫理問題。評論強調在醫療中謹慎整合人工智慧的重要性,需有人的監督和透明度,以維持倫理標準。為了充分發揮LLMs的優勢,必須認識並解決這些倫理挑戰,並促進負責任的使用。 PubMed DOI

這項研究探討了三個大型語言模型(LLMs)——GPT-4、Gemini-pro-1.5和Llama-3-70b,以及執業醫師在面對倫理模糊的醫療問題時的回答一致性。共生成1,248個問題,醫師的同意率僅55.9%,而LLMs之間的同意率高達76.8%。這顯示LLMs在倫理複雜情境中可能成為有價值的顧問,且其一致性優於醫師。研究強調了進一步探討LLMs在現實世界倫理困境中的表現的重要性。 PubMed DOI