原始文章

紐約一項調查發現,多數醫師知道也有興趣用大型語言模型(LLM)虛擬助理,但實際用的人還不多。大家最想用在文獻審閱、病人衛教和醫療紀錄。年輕醫師、住院醫師和女性醫師興趣較高。研究建議未來要加強教育和指引,協助醫療人員安全導入LLM。 PubMed DOI


站上相關主題文章列表

這項研究調查了病理學家對大型語言模型(LLM)如ChatGPT的使用情況。全球215位病理學家參與,結果顯示46.5%曾用LLM處理專業任務,並感受到明顯的時間節省。學術病理學家對LLM的理解較好,雖然有時提供不正確資訊,但在病理學知識上被認為具中等專業能力。LLM主要用於創建教育材料和編程,參與者對資訊準確性和隱私問題表示擔憂。整體來看,病理學家對LLM的接受度逐漸提高,但仍對可靠性和倫理問題有顧慮。 PubMed DOI

生成式 AI 模型如 ChatGPT 正逐漸融入醫學教育,許多學生利用它來學習和準備考試,包括美國醫學執照考試(USMLE)。根據2023年5月的調查,96% 的醫學生知道 ChatGPT,52% 曾使用過它來完成課業。學生常用它解釋醫學概念、協助診斷及文法檢查。不過,對於不準確性、病人隱私和抄襲的擔憂也浮現,顯示出制定規範以確保道德使用的必要性。了解學生的看法對於建立負責任的使用指導方針至關重要。 PubMed DOI

**引言** 人工智慧(AI)在醫學領域受到廣泛關注,尤其是大型語言模型(LLMs)如ChatGPT的興起,使其對醫學生更具可及性。本研究探討醫學生如何使用基於LLM的工具及其看法。 **方法** 2024年1月,佛羅里達大學醫學院對醫學生進行調查,評估他們對AI和LLM工具的使用情況及看法。 **結果** 102名受訪者中,69%每月至少使用一次這些工具,77.1%認為信息準確,80%有意在未來繼續使用。對AI有基本了解的學生更可能使用這些工具並進行信息交叉檢查。接觸過AI的學生對臨床決策中信任AI的可能性更高。 **結論** 基於LLM的聊天機器人已成為醫學生學習的重要資源,醫學生普遍對其持正面看法,並希望在課程中納入AI,以準備未來的實踐。 PubMed DOI

人工智慧(AI)在醫療領域的應用逐漸普及,透過大型語言模型(如GPT-4)和自動語音識別技術,能有效提升醫療文檔的效率,讓醫生更專注於病人護理。然而,AI生成的內容需謹慎校對,因為可能出現錯誤或不準確的資訊。此外,隨著醫療數據的增加,患者隱私和算法偏見的風險也上升。因此,開發者應加強監管,遵循倫理指導,並改善輸出準確性。 PubMed DOI

大型語言模型(LLMs)在醫療保健中展現出顯著潛力,能增強醫學教育、臨床決策支持及醫療管理。文獻回顧顯示,LLMs可作為虛擬病人和個性化導師,並在醫學知識評估中超越初級實習生。在臨床決策中,它們協助診斷和治療建議,但效果因專科而異。此外,LLMs能自動化臨床筆記和報告生成,減輕醫療人員的負擔。然而,仍需解決幻覺、偏見及病人隱私等挑戰。未來的整合需謹慎,並強調倫理與合作。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

大型語言模型正快速改變醫療現場,不只協助診斷、提升衛教,也讓臨床流程更有效率。導入時要重視好用的介面、醫師訓練、AI與醫護合作,並落實隱私與倫理規範。未來會朝多模態、強化安全及結合機器人發展,但最重要的還是以病患安全和人本設計為核心,輔助醫療專業而非取代。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,英國基層醫師普遍對大型語言模型應用在臨床與非臨床工作持正面看法,尤其看好即時筆記和任務管理,但最擔心病人安全。研究建議未來開發需更重視醫師需求與安全性。 PubMed DOI