原始文章

一個團隊開發了AI教練「Bill」,用GPT-4o模擬真實放射線技術情境,讓學生互動練習並即時獲得回饋。初步結果顯示,Bill能有效提升學習成效,也展現AI在醫療訓練上的潛力,未來有望擴展到其他醫學領域。 PubMed DOI


站上相關主題文章列表

這項研究顯示生成式人工智慧,特別是OpenAI的GPT-4 Turbo API,在提升放射學訓練方面的潛力。研究發現,這個AI模型能檢測到的差異明顯多於專業放射科醫師,顯示其在傳統審查中可能被忽略的改進空間。雖然AI在差異檢測上表現優異,但在評分一致性上仍有改進空間。生成的教學要點在85%的案例中被認為適當,顯示其教育價值。未來研究可著重於提高模型準確性及評分者一致性,並探討AI反饋對實習生的長期影響。 PubMed DOI

這項研究探討生成式人工智慧對醫學生創建練習考題的信心與態度影響。68名醫學生和醫師助理學生參加了工作坊,學習使用Google Bard(現稱Gemini)。調查顯示,使用AI創建考題的信心顯著提升(<i>p</i> < 0.001)。焦點小組反饋指出AI的優勢與擔憂,學生希望機構能提供更清晰的指導。雖然信心提升,但研究強調需徹底評估AI生成考題的質量與準確性。總體而言,教導學生負責任地使用AI工具是關鍵。 PubMed DOI

這項研究提出了一種創新的教育角色扮演方式,利用基於GPT-4的AI機器人模擬健康相關的病史訪談。由大學講師和AI專家共同開發,讓不同健康專業的學生能與虛擬病人進行複雜對話,取代傳統的角色扮演。調查結果顯示,超過80%的學生認為虛擬病人的專業性和準確性良好,並且更喜歡這種AI訓練方式,認為其沉浸感和互動性優於傳統方法,顯示AI在教育中的潛力。 PubMed DOI

這項研究探討了GPT-3.5在為放射科住院醫師生成回饋的有效性,並與人類撰寫的評論進行比較。隨著加拿大放射科課程實施能力為基礎的醫學教育,對敘述性回饋的需求增加。研究分析了28位教職員對10位住院醫師的110條評論,發現人類撰寫的回饋通常較長且具體,而GPT生成的評論則較模糊。人類評分者的準確率為80.5%,而GPT-3.5僅50%。結果顯示,GPT-3.5尚無法達到人類回饋的具體性,未來需改進算法以提升AI回饋質量。 PubMed DOI

這項研究建立了一個自訂的GPT-3.5模型,用來評估一年級物理治療學生的解剖學作業,並將其表現與專業領域的專家進行比較。結果顯示,人工智慧的評分可以減輕工作負擔,同時確保評估的一致性和高品質。這表明人工智慧有潛力提升醫學教育的效率和個性化。 PubMed DOI

這項研究探討AI生成的多選題(MCQs)在放射學教育中的有效性,與教職員撰寫的題目比較。研究於2024-2025學年在土耳其進行,56名一年級醫學影像學生參加了兩場考試,分別由ChatGPT和教職員編寫。結果顯示兩場考試的正確答案平均數相似,且考試成績之間有中等正相關。雖然ChatGPT生成的問題在區分度和難度上稍遜,但整體來看,AI能生成與人類專家相當的題目,顯示其在健康教育評估中的潛力。 PubMed DOI

這項研究開發了一個用GPT-4打造的虛擬模擬病人,幫助醫學生練習和病人討論異常乳房攝影結果。團隊邀集多方專家設計情境,並多次測試調整。GPT-4讓對話更自然,也能給學習者回饋,但有時會誤判溝通流程。初步成果不錯,接下來會讓醫學生實際體驗,評估可行性和接受度。 PubMed DOI

這項研究評估AI面試工具"The Negotiator"對放射師畢業生的幫助。結果發現,這工具能提供結構化的面試練習,有助提升表達和自信,但在專業標準和臨床內容上還需加強。評分者意見不一,顯示工具尚待優化。整體來說,The Negotiator具潛力,但還需進一步改進和研究。 PubMed DOI

這項研究發現,透過反覆回饋修正,GPT-4o能快速產出高品質的跨專業教育臨床情境,品質甚至不輸人類導師設計,學生也分辨不出差異。這方法能有效減輕教師負擔,對資源有限的教學環境特別有幫助。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI