原始文章

這篇文章探討大型語言模型(LLMs)產生的「不負責任言論」問題,這可能對科學、教育及民主社會的知識完整性造成長期風險。LLMs雖然常給出看似合理的回應,但可能包含不準確或偏見,影響知識品質。作者分析了對LLM提供者施加法律責任的可能性,並檢視歐盟的《人工智慧法》和《數位服務法》,指出目前對真實性義務的限制。文章也提到德國一案例,建議透過法律責任來減少不負責任言論,確保輸出與事實一致。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)是強大的人工智慧工具,能根據指示產生各種內容。為確保負責任使用,需要人類監督和道德設計。負責任使用LLMs可增進人類決策和資訊檢索。在醫療領域,它們有潛力改革數據管理。使用者、開發者、提供者和監管機構需共同努力因應LLM帶來的重大影響。 PubMed DOI

討論眼科研究使用大型語言模型(LLMs)如ChatGPT的影響,探討其好處、道德疑慮和解決方案。LLMs在研究中有幫助,但也帶來道德挑戰,尤其是科學誠信。建議眼科期刊制定針對LLM使用的指南,強調訂定LLM道德指南的重要性,確保在眼科研究中負責任使用。 PubMed DOI

大型語言模型AI在醫療保健領域可能帶來改革,但也引發了對於不良結果責任的疑慮。雖然美國尚無具體LLM AI醫療過失案例,但過去先例可提供法律參考。本文探討臨床醫師使用LLM AI的法律風險,檢視AI醫療過失責任法規,提出政策建議,如FDA演算法透明度、LLM使用同儕審查、侵權改革分享責任。 PubMed DOI

研究指出,大型語言模型(LLMs)在法律分析,特別是稅法領域上有進步。新模型的推出讓LLMs更懂法律。給予額外法律背景和提示,像GPT-4,LLMs表現更好。雖然LLMs精確,但還不如專業稅務律師。LLMs進步,可能對法律界和AI治理有重大影響。 PubMed DOI

研究評估了防止大型語言模型(LLMs)生成健康虛假資訊的保護措施。測試四個LLMs,發現有些保護措施有漏洞,有些持續生成虛假資訊。研究建議加強監管、透明度和定期審計,以防止LLMs散播健康虛假資訊。 PubMed DOI

大型語言模型(LLMs)在各行各業快速崛起,尤其在醫療保健領域,引發了重要的道德問題。LLMs獨特之處需要複雜的道德處理方式,涉及數據隱私、所有權、知識產權等議題。為了負責任地應用LLMs於醫療保健,我們需要建立全面的道德框架,符合道德原則並降低社會風險。 PubMed DOI

論文討論了在醫療領域整合大型語言模型(LLMs)的影響,強調臨床醫師的信任、數據來源,以及對LLM性能和臨床醫師能力的影響。提到LLMs中自我參考學習迴圈的擔憂,並討論了風險,如醫療專業人員的技能下降。呼籲整合LLMs到醫療中要謹慎,確保安全有效使用。 PubMed DOI

討論了在醫學教育中使用大型語言模型(LLMs)所面臨的道德挑戰,包括對於AI幻覺、隱私風險和透明度問題的擔憂。建議基於八項原則為醫學教育中的LLMs創建一個特定的道德框架,以確保整合LLMs時能負責任且安全,平衡技術進步與道德考量。 PubMed DOI

這篇評論探討了大型語言模型(LLMs)在眼科應用的倫理影響,分析了47篇相關文章。雖然LLMs在教育、研究、臨床決策和手術協助等方面有潛力,但也存在準確性不足、可能產生有害建議及數據隱私等倫理問題。評論強調在醫療中謹慎整合人工智慧的重要性,需有人的監督和透明度,以維持倫理標準。為了充分發揮LLMs的優勢,必須認識並解決這些倫理挑戰,並促進負責任的使用。 PubMed DOI

高風險自動化決策的解釋權引發了倫理與科技的討論。雖然解釋權對透明度和問責制很重要,但對依賴自動化系統的組織來說,成本問題也不容忽視。大型語言模型(LLMs)可能提供解決方案,幫助簡化解釋過程,減輕企業負擔。然而,使用LLMs也帶來準確性、偏見及依賴自動化系統的倫理擔憂。組織可能會表面合規,卻未真正參與決策。因此,部署LLMs時需謹慎,考量倫理影響及真正的問責需求。 PubMed DOI