原始文章

這項研究評估了一個名為Anatbuddy的AI聊天機器人,專注於提供準確的解剖學資訊,並與ChatGPT 3.5進行比較。Anatbuddy採用檢索增強生成的方法,能根據特定知識庫給出有上下文的回應。三位解剖學專家評估了18個胸部解剖問題的回答,結果顯示Anatbuddy的事實準確性得分明顯高於ChatGPT(4.78對4.11)。雖然其他評估標準差異不大,但研究建議應開發自訂AI聊天機器人以提升解剖學教育的準確性,並呼籲進一步探討學生對這類工具的接受度及其學習影響。 PubMed DOI


站上相關主題文章列表

研究JMIR Med Educ報告了ChatGPT對醫學教育的影響。ChatGPT在解剖教育中提供準確描述和測驗,但在變異性方面表現不佳。ChatGPT-4可作為解剖學教育工具,但不宜取代教育者。未來研究需明確ChatGPT在醫學教育中的最佳應用方式。 PubMed DOI

這項研究評估了AI聊天機器人ChatGPT在解決與生理學相關的推理問題上的效果。從六個模組中選取了82個問題,用來測試AI處理核心概念的能力。結果顯示在不同模組和核心概念中表現不一,顯示有必要進一步評估AI在醫學教育中的應用,以提高學生之間的學習轉移。 PubMed DOI

研究比較ChatGPT和Google Bard在解剖學教育上的應用,發現兩者在回答問題和出題方面表現相似,但在寫文章方面還有改進空間。結果顯示使用語言模型需謹慎,以免提供不正確或誤導性資訊。雖然大型語言模型在解剖學教學有潛力,但還需進一步研究提升其在教育上的效果。 PubMed DOI

ChatGPT是OpenAI開發的AI聊天機器人,最近在醫學領域有新應用。研究使用ASCP住院醫師問題庫2022年版來測試ChatGPT的病理學知識,得分為56.98%,稍低於同儕平均62.81%。在臨床病理學方面表現較好(60.42%),但在解剖病理學方面較差(54.94%)。ChatGPT在簡單問題(68.47%)上表現較好,但在中等(52.88%)和困難問題(37.21%)上表現較差。未來可以透過更專業的訓練來提升病理學教育效果,但目前仍需謹慎使用。 PubMed DOI

ChatGPT是OpenAI在2022年推出的AI工具,利用深度學習生成自然語言回應,適用於對話。研究指出,在醫學教育和臨床實踐中,ChatGPT表現優異,提供準確且有洞察力的回應,對處理複雜臨床情境有幫助,可成為有價值的輔助工具,增進自主醫學學習。這樣的AI工具有助於提供更有效率和個人化的醫療保健學習體驗。 PubMed DOI

研究比較了ChatGPT在醫學本科生學習中的表現,發現GPT-3.5在生理學基礎問題上表現較好,但在臨床應用方面有不足。生物化學部分整體表現較差,解釋和準確性有待提升。GPT-4在兩科中表現較佳。教育工作者和學生需了解生成式AI的優勢和限制,才能有效運用於教學。 PubMed DOI

研究比較了三個AI聊天機器人(ChatGPT-3.5、ChatGPT-4.0、Bard Google AI®)在回答骨科研究生級別的多重選擇題時的表現。結果顯示,Bard Google AI® 的表現比兩個ChatGPT版本好,顯示它在處理骨科知識方面有研究生水準的潛力。 PubMed DOI

人工智慧技術,特別是生成式預訓練轉換器(GPTs),有潛力提升解剖科學教育。AnatomyGPT是針對解剖科學教育設計的AI應用程式,在解剖主題的考試題目上表現優異,比ChatGPT更具參考價值。這研究顯示,像AnatomyGPT這樣的定製GPT對於教授和學習解剖學可能有幫助,但還需要進一步研究來探索其在教育中的潛力。 PubMed DOI

這項研究探討了人工智慧聊天機器人ChatGPT在麻醉學領域回應病人問題的效果。研究將ChatGPT的回應與認證麻醉醫師的回應進行比較,使用100個虛構臨床情境的麻醉問題。結果顯示,ChatGPT的整體質量評分與麻醉醫師相似,但同理心評分較高。不過,ChatGPT在科學共識一致性上表現不佳,且潛在傷害的比率較高。研究結論指出,雖然ChatGPT在醫療領域有潛力,但仍需改進以降低風險,並建議進一步研究其在複雜臨床情境中的有效性。 PubMed DOI

這項研究探討了ChatGPT在回答肌肉骨骼解剖學問題的準確性和一致性。研究中向ChatGPT 3.5提出六個問題,並在四個不同時間點詢問,三位專家用5點量表評估回應。結果顯示,回應質量差異大,50%的答案被評為良好,但低質量的答案常有重大錯誤或矛盾。整體而言,ChatGPT的回應不穩定,限制了其作為學習資源的可靠性,建議查閱專業文獻以驗證信息。 PubMed DOI