原始文章

澳洲和紐西蘭的醫學物理學家調查發現,很多人已經用像 ChatGPT 這類大型語言模型來提升工作效率,但品質沒明顯變好。大家最擔心資料安全、病患隱私、缺乏指引,以及資源有限時的存取和成本問題。研究呼籲應該訂出明確規範和風險管理措施,確保臨床使用安全。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用ChatGPT作為醫學教育中的標準化病人,特別是在病史採集方面。研究分為兩個階段:第一階段評估其可行性,模擬炎症性腸病的對話並將回應分為好、中、差三類。第二階段則評估其擬人化、臨床準確性和適應性,並調整提示以增強回應。 結果顯示,ChatGPT能有效區分不同質量的回應,經過修訂的提示使其準確性提高了4.926倍。整體而言,研究表明ChatGPT可作為模擬醫學評估的工具,並有潛力改善醫學訓練。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在回答放射腫瘤物理問題的表現。研究人員使用100道由專家設計的選擇題,測試了五個LLM,包括OpenAI o1-preview和GPT-4o等。結果顯示,所有模型的表現達到專家水準,o1-preview在某些情況下甚至超越醫學物理學家。不過,當正確答案被移除時,模型表現明顯下降,顯示需改進。透過解釋優先和逐步提示的方式,LLaMA 3.1等模型的推理能力有所增強,顯示這些LLM在放射腫瘤物理教育上有潛力。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

ChatGPT這類大型語言模型,能幫助放射科研究人員在研究發想、文獻整理、設計、分析和寫作上更有效率。不過,也要注意錯誤、偏見和隱私等風險。透過像提示工程和模型優化等方法,可以提升使用成效,同時降低潛在風險。 PubMed DOI

調查顯示,大型語言模型(LLMs)能提升醫療工作效率,多數用過的人都給予正面評價。不過,醫護人員、年長者和女性對於導入LLMs較為保留,主要擔心實用性和工作影響。年輕男性則較看好LLMs的幫助。大家普遍認為,未來LLMs會改變工作和人際互動,因此需要有完善的教育和支援,才能讓醫療界公平、安全地導入這項新技術。 PubMed DOI

這篇回顧整理了17篇關於ChatGPT在醫療應用的研究,發現它在病患照護、臨床決策和醫學教育上有潛力,應用範圍廣泛。不過,目前多數研究品質普通,且在倫理、法律和準確性上還有疑慮。未來需要更完善的指引和政策,才能確保安全可靠地使用。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,ChatGPT 4.0對經驗較少的放射師特別有幫助,能協助學習和減輕壓力,但對資深放射師來說,進階問題的回答還不夠清楚和精確。整體而言,ChatGPT適合用於放射師教育和臨床輔助,但還需要再優化才能完全滿足專家需求。 PubMed DOI

一份針對42國心理健康研究人員的調查發現,約七成會用大型語言模型(像是ChatGPT)來校稿或寫程式,年輕研究人員用得更多。大家覺得LLM能提升效率和品質,但對準確性、倫理和偏見還是有疑慮。多數人希望有更多訓練和明確指引,確保負責任且透明地使用這些工具。 PubMed DOI

這項研究發現,ChatGPT能幫助腦膜瘤患者了解診斷和治療,特別是在放射線治療後的衛教上。大多數患者覺得ChatGPT的回答清楚又正確,六成願意未來再用。醫師也認同內容大致正確,但提醒部分細節、尤其副作用說明還不夠完整。整體來說,ChatGPT適合當作衛教輔助工具,但還是需要醫師把關。 PubMed DOI