原始文章

這項研究發現,ChatGPT-4.0在回答小兒外科問題時表現比住院醫師和3.5版更好,尤其在定義題上最明顯。住院醫師看過AI表現後,對AI態度變得更正向。研究建議把AI教育納入醫學訓練,有助未來醫師善用AI工具。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT-4在整形外科在職考試中的表現,並與醫學住院醫師及ChatGPT-3.5進行比較。分析了2018至2023年的1,292道考題,ChatGPT-4的正確率為74.4%,在核心外科原則上表現最佳(79.1%),顱顏面外科則最低(69.1%)。它的排名介於第61到第97百分位,明顯超越了ChatGPT-3.5的55.5%正確率和第23百分位。這顯示ChatGPT-4的知識已超越獨立住院醫師,達到第六年綜合住院醫師的水準。 PubMed DOI

這項研究探討產科住院醫師如何與ChatGPT互動,並評估他們的資訊科技(IT)和人工智慧(AI)能力。研究對象為14名住院醫師,分析他們的提問方式及與ChatGPT的互動結果。結果顯示,雖然住院醫師的IT技能中等,但AI能力較低,正確回應僅21%。許多醫師對自己的AI訓練不滿,且AI回應的準確性與自評技能無關。研究建議醫學教育應加強AI素養,特別是提示工程,以提升醫療環境中的病人護理品質。 PubMed DOI

這項研究分析了執業醫生與五年級醫學生對人工智慧(AI)的看法與經驗。調查顯示,26.67%的醫生和13.33%的學生未使用過AI。學生對AI的有效性評價普遍高於醫生,尤其在教育和工作經驗上。雖然兩組人員都使用AI來檢索資訊,但學生對AI在教育和實踐中的應用持較開放態度。儘管認同AI的優勢,雙方對其準確性和可靠性仍有疑慮。研究建議需進一步探討AI在醫學課程中的整合及相關倫理問題。 PubMed DOI

最近一項研究調查了207名醫學生對於像ChatGPT這類人工智慧工具的認識與態度。結果顯示,66.7%的學生對ChatGPT有了解,但對其他AI工具的認識較少。大多數學生以非正式方式使用AI,主要當作搜尋引擎,且超過一半的人對AI技術感到不夠了解。他們希望獲得更多與未來醫生角色相關的訓練,特別是在AI應用於學習、一般知識及科學寫作方面。研究也發現性別和自我評估的學習表現存在差異,為未來研究提供了新方向。 PubMed DOI

本研究比較了ChatGPT4.0與3.5在手外科影像問題上的表現,發現兩者在正確率上無顯著差異(分別為30.1%和28.7%)。雖然ChatGPT4.0提供的解釋較長,但對答案的信心卻較低,尤其在放射影像問題上表現出更高的不確定性。未來研究應探討AI生成的回答如何影響臨床與教育環境中的行為,以促進AI在醫療中的應用。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是ChatGPT-4和Microsoft Copilot在小兒外科的有效性。研究於2024年4月進行,分析了13個臨床案例,並將AI的回應與經驗豐富的小兒外科醫生的回應進行比較。結果顯示,ChatGPT-4的表現(52.1%)優於Copilot(47.9%),但兩者都低於醫生的68.8%。雖然ChatGPT-4在生成鑑別診斷方面表現較佳,但整體上,醫生對LLMs的評價為一般,顯示出其在臨床決策中的限制,需進一步研究以提升AI的應用能力。 PubMed DOI

這項研究發現,ChatGPT-4在手術室情境下協助臨床決策時,表現和住院麻醉科醫師有時相近、有時差異較大。給它更多提示會讓表現變好,但整體來說,準確度和完整性還不夠穩定,目前還不適合用來做手術中的即時決策。 PubMed DOI

研究發現,ChatGPT-4在兒童加護病房(PICU)事實性知識題表現不錯,答案較完整,有六成時間被評審偏好;但臨床推理還是專科醫師表現較佳,正確率也較高。兩者結合效果最好。總結來說,ChatGPT-4有潛力輔助PICU教育,但臨床推理部分還是需要專家把關,不能單獨使用。 PubMed DOI

ChatGPT 在通用外科考試拿到 72.7 分,超過及格線,生理學和選擇題表現不錯,但解剖學和需要分析的題目比較弱。雖然有潛力協助醫學教育,但還有不少限制,未來要再多研究和評估,才能廣泛應用。 PubMed DOI

這項研究發現,不論是家長還是醫師,都認為 ChatGPT-4o 生成的小兒外科手術同意書比醫師自己寫的更好、更受歡迎。結果顯示,AI 有助於提升醫療同意書的品質和家長的滿意度。 PubMed DOI