原始文章

這項研究針對最後一年醫學生評估大型語言模型(LLM),特別是GPT-3.5,在臨床情境中的反應能力。調查148名醫學生,結果顯示他們準確評估LLM反應的中位數為56%。學生認為互動式案例學習和病理學教學對評估AI輸出最有幫助,但只有5%的人知道「臨床提示工程」。研究指出,雖然學生在評估LLM方面有一定能力,但醫學教育需加強AI互動和提示工程的訓練,以幫助未來醫生適應AI增強的醫療環境。 PubMed DOI


站上相關主題文章列表

人工智慧有潛力改變醫學教育和實踐,但學術醫學界在接受人工智慧方面進展緩慢。ChatGPT是一個受歡迎的人工智慧工具,可以協助醫療專業人員、教育工作者和病患。研究發現,大多數即將畢業的醫學生對人工智慧經驗有限,但對其在醫療和醫學教育領域的未來持樂觀態度。為了應對人工智慧在醫學領域的整合,需要提供正式培訓和指導方針。 PubMed DOI

這項研究探討了將ChatGPT融入醫學教育的可行性,並強調AI能力對醫學生的重要性。52名醫學生參與了混合式學習課程,評估了使用ChatGPT的效果。主要發現包括:學生在整合ChatGPT的課程中滿意度和學習進展高,且對AI技能的重視程度上升。雖然學生對ChatGPT生成的病人資訊評價中等,但使用擴展提示後明顯改善。研究建議將ChatGPT納入醫學教育,以提升學習體驗並發展AI能力。 PubMed DOI

生成式 AI 模型如 ChatGPT 正逐漸融入醫學教育,許多學生利用它來學習和準備考試,包括美國醫學執照考試(USMLE)。根據2023年5月的調查,96% 的醫學生知道 ChatGPT,52% 曾使用過它來完成課業。學生常用它解釋醫學概念、協助診斷及文法檢查。不過,對於不準確性、病人隱私和抄襲的擔憂也浮現,顯示出制定規範以確保道德使用的必要性。了解學生的看法對於建立負責任的使用指導方針至關重要。 PubMed DOI

**引言** 人工智慧(AI)在醫學領域受到廣泛關注,尤其是大型語言模型(LLMs)如ChatGPT的興起,使其對醫學生更具可及性。本研究探討醫學生如何使用基於LLM的工具及其看法。 **方法** 2024年1月,佛羅里達大學醫學院對醫學生進行調查,評估他們對AI和LLM工具的使用情況及看法。 **結果** 102名受訪者中,69%每月至少使用一次這些工具,77.1%認為信息準確,80%有意在未來繼續使用。對AI有基本了解的學生更可能使用這些工具並進行信息交叉檢查。接觸過AI的學生對臨床決策中信任AI的可能性更高。 **結論** 基於LLM的聊天機器人已成為醫學生學習的重要資源,醫學生普遍對其持正面看法,並希望在課程中納入AI,以準備未來的實踐。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來提升醫學生的臨床決策訓練,透過模擬病人互動進行。研究分為對照組和反饋組,反饋組除了模擬對話外,還獲得AI生成的表現反饋。共21名醫學生參與,使用臨床推理指標評估表現。結果顯示,反饋組經過訓練後表現顯著優於對照組,特別在情境創建和資訊獲取上。研究指出,AI模擬對話結合結構化反饋,能有效支持臨床決策訓練,提升學生的實務準備。 PubMed DOI

這項研究分析了執業醫生與五年級醫學生對人工智慧(AI)的看法與經驗。調查顯示,26.67%的醫生和13.33%的學生未使用過AI。學生對AI的有效性評價普遍高於醫生,尤其在教育和工作經驗上。雖然兩組人員都使用AI來檢索資訊,但學生對AI在教育和實踐中的應用持較開放態度。儘管認同AI的優勢,雙方對其準確性和可靠性仍有疑慮。研究建議需進一步探討AI在醫學課程中的整合及相關倫理問題。 PubMed DOI

最近一項研究調查了207名醫學生對於像ChatGPT這類人工智慧工具的認識與態度。結果顯示,66.7%的學生對ChatGPT有了解,但對其他AI工具的認識較少。大多數學生以非正式方式使用AI,主要當作搜尋引擎,且超過一半的人對AI技術感到不夠了解。他們希望獲得更多與未來醫生角色相關的訓練,特別是在AI應用於學習、一般知識及科學寫作方面。研究也發現性別和自我評估的學習表現存在差異,為未來研究提供了新方向。 PubMed DOI

最近的人工智慧進展讓大型語言模型能針對特定領域進行客製化,像是醫學教育。本研究評估了一個專為提升醫學生和醫師臨床知識的客製化GPT模型,結果顯示其準確率達83.6%,高於一般AI模型。住院醫師對此模型的滿意度高,特別是它能促進學習獨立性和信心。這些發現顯示,客製化GPT有潛力改善醫學教育,但學習者和教育者仍需批判性地評估AI生成的內容。 PubMed DOI

這項研究評估了一般醫學科實習生在識別AI生成內容不準確性方面的能力,特別是使用ChatGPT-4o。研究發現,ChatGPT-4o的準確率為80.8%,但在專業情境中僅57.0%。142名實習生識別了87個AI幻覺,平均檢測準確率只有55.0%。影響檢測錯誤的因素包括反應時間短、自我評估AI理解能力高及頻繁使用AI工具。結論強調,實習生在臨床情境中識別AI錯誤的挑戰,需加強醫學教育中的AI素養與批判性思維。 PubMed DOI

學生們越來越依賴人工智慧(AI)工具,如ChatGPT,來輔助醫學教育和考試準備。一項研究檢視了AI生成的多選題,這些題目模仿美國醫學執照考試(USMLE)第一階段的格式。研究發現,83%的問題事實上是準確的,常見主題包括深靜脈血栓和心肌梗塞。研究建議,分開生成內容主題和問題可以提升多樣性。總體而言,ChatGPT-3.5能有效生成相關考題,但需謹慎提示以減少偏見,對醫學生準備USMLE考試有幫助。 PubMed DOI