原始文章

這項研究評估AI面試工具"The Negotiator"對放射師畢業生的幫助。結果發現,這工具能提供結構化的面試練習,有助提升表達和自信,但在專業標準和臨床內容上還需加強。評分者意見不一,顯示工具尚待優化。整體來說,The Negotiator具潛力,但還需進一步改進和研究。 PubMed DOI


站上相關主題文章列表

本研究探討ChatGPT-4o在為放射學學生制定符合澳洲醫療輻射實踐委員會(MRPBA)要求的持續專業發展(CPD)計畫的有效性。研究結果顯示,雖然生成的CPD計畫普遍符合監管標準,但評估者之間的評分一致性較高,顯示出一定的變異性,特別是在及時性和完整性方面。結論指出,ChatGPT-4o能減輕CPD計畫的認知負擔,但仍需人類監督以確保計畫的相關性。未來研究應著重提升AI的個性化能力,發掘其在專業教育中的潛力與限制。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

這項研究探討了GPT-3.5在為放射科住院醫師生成回饋的有效性,並與人類撰寫的評論進行比較。隨著加拿大放射科課程實施能力為基礎的醫學教育,對敘述性回饋的需求增加。研究分析了28位教職員對10位住院醫師的110條評論,發現人類撰寫的回饋通常較長且具體,而GPT生成的評論則較模糊。人類評分者的準確率為80.5%,而GPT-3.5僅50%。結果顯示,GPT-3.5尚無法達到人類回饋的具體性,未來需改進算法以提升AI回饋質量。 PubMed DOI

這項研究探討AI生成的多選題(MCQs)在放射學教育中的有效性,與教職員撰寫的題目比較。研究於2024-2025學年在土耳其進行,56名一年級醫學影像學生參加了兩場考試,分別由ChatGPT和教職員編寫。結果顯示兩場考試的正確答案平均數相似,且考試成績之間有中等正相關。雖然ChatGPT生成的問題在區分度和難度上稍遜,但整體來看,AI能生成與人類專家相當的題目,顯示其在健康教育評估中的潛力。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究發現,ChatGPT 4.0對經驗較少的放射師特別有幫助,能協助學習和減輕壓力,但對資深放射師來說,進階問題的回答還不夠清楚和精確。整體而言,ChatGPT適合用於放射師教育和臨床輔助,但還需要再優化才能完全滿足專家需求。 PubMed DOI

這篇文章討論生成式 AI(像 ChatGPT)在澳紐精神科醫師訓練的應用,包含學員選拔和評量。雖然 AI 有助提升效率,但在病患資料的倫理和隱私上仍有限制。RANZCP 應調整評量方式,因為完全禁止 AI 並不實際。隨著 AI 快速進步,訓練內容也要持續更新,才能跟上潮流。 PubMed DOI

一個團隊開發了AI教練「Bill」,用GPT-4o模擬真實放射線技術情境,讓學生互動練習並即時獲得回饋。初步結果顯示,Bill能有效提升學習成效,也展現AI在醫療訓練上的潛力,未來有望擴展到其他醫學領域。 PubMed DOI

這項研究發現,讓醫學生用 ChatGPT 扮演「標準化病人」練習溝通,能提升他們面對困難情境的信心,學生覺得這種方式安全又方便,回饋也很詳細。不過,AI 在情感表現和技術上還有待加強,不同學校學生的接受度也不一樣。由於樣本少、沒對照組,結果僅供參考,未來還需更大規模的客觀研究。 PubMed DOI

這篇綜述指出,ChatGPT雖然不能直接判讀醫學影像,但在協助撰寫放射科報告、設計研究計畫和統計分析上表現不錯。由於取得容易、用途多元,對放射科醫師來說是很實用的工具,但在影像判讀方面還是有限制。 PubMed DOI