原始文章

紐約一項調查發現,多數醫師知道也有興趣用大型語言模型(LLM)虛擬助理,但實際用的人還不多。大家最想用在文獻審閱、病人衛教和醫療紀錄。年輕醫師、住院醫師和女性醫師興趣較高。研究建議未來要加強教育和指引,協助醫療人員安全導入LLM。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT引起了對大型語言模型在臨床環境中應用的關注。最近一項針對英國全科醫生的調查顯示,20%的醫生已在臨床實踐中使用生成式人工智慧工具。使用者中,29%用於生成就診後文檔,28%用於建議鑑別診斷。儘管醫生認為這些工具在行政和臨床推理上有價值,但缺乏明確的指導和政策,醫療界面臨著教育專業人員和患者的挑戰。 PubMed DOI

人工智慧(AI)在醫療領域的應用逐漸普及,透過大型語言模型(如GPT-4)和自動語音識別技術,能有效提升醫療文檔的效率,讓醫生更專注於病人護理。然而,AI生成的內容需謹慎校對,因為可能出現錯誤或不準確的資訊。此外,隨著醫療數據的增加,患者隱私和算法偏見的風險也上升。因此,開發者應加強監管,遵循倫理指導,並改善輸出準確性。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

大型語言模型(LLMs)在醫療保健中展現出顯著潛力,能增強醫學教育、臨床決策支持及醫療管理。文獻回顧顯示,LLMs可作為虛擬病人和個性化導師,並在醫學知識評估中超越初級實習生。在臨床決策中,它們協助診斷和治療建議,但效果因專科而異。此外,LLMs能自動化臨床筆記和報告生成,減輕醫療人員的負擔。然而,仍需解決幻覺、偏見及病人隱私等挑戰。未來的整合需謹慎,並強調倫理與合作。 PubMed DOI

最新調查發現,泌尿科專業人員用GPTs/LLMs處理學術工作的比例大增,但實際用在臨床上的反而減少。雖然AI在學術領域越來越普及,但臨床應用還是有疑慮,顯示未來AI發展要更重視人性化設計。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

大型語言模型正快速改變醫療現場,不只協助診斷、提升衛教,也讓臨床流程更有效率。導入時要重視好用的介面、醫師訓練、AI與醫護合作,並落實隱私與倫理規範。未來會朝多模態、強化安全及結合機器人發展,但最重要的還是以病患安全和人本設計為核心,輔助醫療專業而非取代。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,英國基層醫師普遍對大型語言模型應用在臨床與非臨床工作持正面看法,尤其看好即時筆記和任務管理,但最擔心病人安全。研究建議未來開發需更重視醫師需求與安全性。 PubMed DOI

這篇回顧整理了102篇AI在研究所醫學教育的應用,主要來自北美,聚焦放射科、外科和急診。AI被用於評量、招募和臨床決策,大家對AI的看法也越來越正面。不過,目前研究還有偏誤和異質性高等問題,未來還需要更多研究來補足不足。 PubMed DOI