原始文章

腳本一致性測試(SCT)用來評估臨床推理能力,隨著臨床經驗增加,表現會提升。為了減少專家參考小組成員的疲勞問題,引入了ChatGPT來提高SCT的效率。進行了一項準實驗研究,對象為醫學本科生和眼科實習教職員,分為兩組:一組是傳統專家,另一組則是使用ChatGPT和o1生成的AI專家。結果顯示,人類專家得分較高,但AI模型也能有效協助訓練學生,縮小學生與專家之間的表現差距。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT與臨床專家所創建的劇本一致性測試在大學醫學教育中的差異。結果顯示,兩者在情境、臨床問題和專家意見方面並無明顯差異。雖然ChatGPT在加速劇本設計方面有潛力,但傾向於簡化內容。這研究顯示人工智慧工具如ChatGPT在醫學教育教材製作上有潛力,但仍需進一步驗證其有效性和準確性。 PubMed DOI

生成式人工智慧可以為各種疾病創建疾病描述,有助於醫學教育,增進對疾病的理解,提高診斷準確性。在一項研究中,ChatGPT-4成功為184種疾病生成了疾病描述,其完整程度各有不同。這種技術驅動的方法可以成為教導醫學生關於關鍵疾病特徵的寶貴工具。 PubMed DOI

這篇文章探討如何將OpenAI的ChatGPT應用於醫學教育中的客觀結構化臨床考試(OSCEs)。OSCEs對醫學實習生的評估非常重要,但對教育者來說卻是耗時且資源密集的工作。ChatGPT能協助準備各個方面,如開發案例、訓練標準化病人、創建評估方法和制定評分標準。文章強調ChatGPT能提供模擬練習和即時反饋,幫助減輕實習生壓力,但也提醒需驗證其醫學準確性,並注意合規性問題。總之,文章呼籲在醫學教育中謹慎使用AI,以維持教育的完整性。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI

這項研究探討將生成式人工智慧(ChatGPT)、模板和數位影像整合進針刺技能訓練的效果,並與傳統訓練比較。90位醫師分為三組:傳統訓練、模板與數位影像訓練,以及結合ChatGPT的訓練。結果顯示,ChatGPT組在理論知識上顯著提升,技術技能評分也高於傳統組,且學習進展最快。受訓者對ChatGPT組的滿意度最高,顯示這種訓練方法更受歡迎。整體而言,這些技術創新有效提升了醫療技能的學習效果。 PubMed DOI

這項研究評估了ChatGPT在西班牙神經科專科考試中的表現,特別是版本3.5和4,並與人類醫生進行比較。考試包含80道多選題,結果顯示人類醫生中位數得分為5.91,32人未通過。ChatGPT-3.5得分3.94,正確率54.5%,排名第116;而ChatGPT-4得分7.57,正確率81.8%,排名第17,超越許多人類專家。研究顯示,ChatGPT-4在醫學知識評估中有顯著進步,顯示其在專業醫學教育中的潛在價值。 PubMed DOI

這項研究比較了ChatGPT生成的回饋與專家回饋對一年級醫學生臨床推理技能的影響。129名學生被隨機分為兩組,分別接受專家回饋和ChatGPT回饋。結果顯示,兩組在整體表現上沒有顯著差異,但對照組在複雜案例中表現較好。實驗組在了解AI角色後,對AI的批判性思維有明顯提升。這表明ChatGPT可作為專家回饋的替代方案,但在處理複雜案例上可能不足,並促進學生對AI的批判性認識。 PubMed DOI

這項研究評估了ChatGPT-4o在生成高品質多選題(MCQs)的效果,並與人類專家創建的題目進行比較。參與者為準備香港急診醫學初試的醫生,回答了兩組各100題的MCQs。 主要發現包括:AI生成的題目較容易,且兩組題目的區分能力相似,但AI題目中有更多不準確及不適當的內容,且主要評估較低層次的認知技能。AI生成題目的時間大幅縮短。 結論指出,雖然ChatGPT-4o能有效生成MCQs,但在深度上仍不足,強調人類審核的重要性,結合AI效率與專家監督可提升醫學教育的題目創建。 PubMed DOI

這項研究探討了使用ChatGPT-4o作為虛擬病人,協助醫學實習生的臨床訓練。研究在艾登阿德南門德雷斯大學進行,21名六年級醫學生參與,透過問卷、訪談和觀察收集數據。結果顯示,實習生的自我評估與實際表現正相關,但在問題解決和臨床推理上存在明顯差距,且時間壓力加劇不安感。儘管面臨技術問題,實習生對AI輔助訓練表示滿意,並願意參加類似訓練。研究建議ChatGPT-4o可成為提升臨床技能的有效工具。 PubMed DOI

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI