原始文章

這項研究指出大型語言模型(LLMs)在醫學應用中存在重大脆弱性,只需操控模型權重的1.1%就能注入錯誤的生物醫學資訊,並在輸出中擴散。儘管如此,模型在其他生物醫學任務上的表現仍然不變。研究測試了1,025個錯誤的生物醫學事實,凸顯了LLMs在醫療領域的安全性和信任問題。結果強調了需要採取保護措施、驗證流程及謹慎的存取管理,以確保這些模型在醫療實踐中的安全可靠。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)是強大的人工智慧工具,能根據指示產生各種內容。為確保負責任使用,需要人類監督和道德設計。負責任使用LLMs可增進人類決策和資訊檢索。在醫療領域,它們有潛力改革數據管理。使用者、開發者、提供者和監管機構需共同努力因應LLM帶來的重大影響。 PubMed DOI

研究發現大型語言模型在醫療系統中可能持續散播有害、不準確、種族相關的內容。四個模型在種族醫學和誤解情境下表現不一,都散播種族醫學觀念,且回應不一致。這引發對LLMs在醫療環境可能造成潛在傷害的擔憂,因為它們持續散播已被揭露的種族主義觀念。 PubMed DOI

研究評估了防止大型語言模型(LLMs)生成健康虛假資訊的保護措施。測試四個LLMs,發現有些保護措施有漏洞,有些持續生成虛假資訊。研究建議加強監管、透明度和定期審計,以防止LLMs散播健康虛假資訊。 PubMed DOI

訓練和使用大型語言模型(LLMs)在臨床領域中已普遍,但公開的LLMs容易受到數據毒化攻擊。研究發現BioGPT在臨床註記上存在操控風險,尤其對乳癌臨床註記。了解這些風險對負責任使用LLMs至關重要。 PubMed DOI

LLMs在醫療保健領域被廣泛應用,但可能存在濫用風險,如不公平資源分配或侵犯公民權利。報告探討了這些風險並提出因應策略。 PubMed DOI

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

這項研究評估了兩個受歡迎的大型語言模型(LLMs)在臨床決策支持(CDS)方面的潛力,類似於美國FDA授權的設備功能。研究發現,這些LLM能在不同情境下生成類似設備的決策支持,甚至在遵循FDA規範的情況下也能做到。這引發了對LLM可能無意中提供未經授權醫療建議的擔憂,強調了在臨床應用中需要謹慎監督和規範的重要性。 PubMed DOI

大型語言模型(LLMs)在醫療領域展現出改善診斷和病人照護的潛力,但對抗性攻擊使其脆弱,可能導致嚴重後果。本研究分析了LLMs在三個醫療任務中對兩種對抗性攻擊的易受攻擊性,發現無論是開源還是專有模型,都容易被操控。特定領域任務需更多對抗性數據來微調模型,雖然添加這些數據對整體性能影響不大,但改變了模型權重,顯示出檢測和減輕攻擊的潛力。這強調了在醫療應用中加強LLMs安全措施的必要性。 PubMed DOI

隨著大型語言模型(LLMs)在醫學考試中表現優異,對其在醫學領域的應用興趣逐漸增加。然而,這些考試無法真實反映醫生與病人之間的複雜互動,特別是受到病人遵從性和認知偏見的影響。我們假設LLMs在面對臨床偏見時的表現會較差。為此,我們創建了BiasMedQA數據集,包含1,273個修改過的USMLE問題,並評估了六個LLMs。結果顯示,GPT-4對偏見的抵抗力較強,而其他模型表現下降。這強調了增強LLMs對認知偏見抵抗力的重要性,以提供更可靠的醫療結果。 PubMed DOI

大型語言模型(LLMs)在提升醫療服務上潛力巨大,但也帶來不少風險。主要擔憂在於這些模型可能根據不公正的標準來分配資源,涉及金融交易、線上行為、社交互動和醫療記錄等多種數據。研究指出,LLMs 可能顯示偏見,優先考量集體利益,卻犧牲個人權益,這可能為基於人工智慧的社會信用系統鋪路,進而引發醫療及其他領域的倫理與隱私問題。 PubMed DOI