原始文章

本研究探討了ChatGPT(特別是GPT-4模型)在台灣傳統中醫執照考試中的表現。測試結果顯示,ChatGPT的準確率僅43.9%,遠低於兩位持證中醫師的70%和78.4%。大部分錯誤來自對中醫概念的誤解,顯示其在中醫知識和推理上的局限性。雖然ChatGPT在教育資源方面有潛力,但目前在TCM考試中的表現仍不理想。研究建議需改進專門的中醫AI模型,並對其在中醫教育中的應用保持謹慎,未來應專注於提升模型及開發專屬的學習工具。 PubMed DOI


站上相關主題文章列表

研究測試OpenAI的GPT-3模型在內科醫學考試問題上,發現在胸部醫學表現最佳,但整體表現僅超過60%。模型在胸部醫學、胃腸科和一般醫學方面表現不錯,但受限於非英文文本訓練,可能影響表現。 PubMed DOI

研究發現ChatGPT在台灣核子醫學專業考試中表現優異,尤其在理論知識和臨床醫學方面。然而,在醫學法規問題上稍嫌不足。研究使用GPT-4和思維鏈方法提升人工智慧表現,建議問題適中且含較多英文單詞可提高準確性。人工智慧可協助評估考試難度,確保公平性,在醫療教育和多語環境中展現潛力,未來進步將提升其在醫學領域的實用性。 PubMed DOI

研究發現ChatGPT在2017至2021年的中國國家醫學考試中表現不佳,準確度未達0.6閾值。儘管在不同科目中表現差異不大,但根據問題類型有所不同。ChatGPT在臨床流行病學、人類寄生蟲學和皮膚病學等領域表現優秀,同時在分子、健康管理、預防、診斷和篩檢等主題上也表現出色。研究指出大型語言模型在醫學教育中有潛力,但也強調提高表現需要高質量醫學數據的重要性。 PubMed DOI

研究發現ChatGPT-4在台灣SPTEMD Stage 1的醫學考試中表現不錯,尤其在多重選擇題方面,整體平均分數為87.8%,生物化學表現最佳。儘管在解剖學、寄生蟲學和胚胎學等科目有些許差異,但研究認為ChatGPT可能對醫學教育和考試準備有幫助。 PubMed DOI

台灣醫療好,2022和2023年醫師考試數據顯示ChatGPT-4準確率介於63.75%到93.75%,最高93.75%在2022年2月。眼科、乳房外科、整形外科、骨科和普通外科表現較差。透過“思維鏈”方法,ChatGPT-4準確率提升至90%以上,在台灣醫師考試表現優異。 PubMed DOI

研究發現ChatGPT在中醫臨床醫學考試中表現良好,尤其在醫學人文學科方面。然而,在病理學問題上表現較差。ChatGPT在單選題方面表現較多選題更好。儘管有潛力幫助醫學知識,但仍需改進準確性和可靠性。有效運用ChatGPT於醫學教育需謹慎評估和積極採取措施。 PubMed DOI

這項研究評估了ChatGPT在中國國家醫學執照考試中的表現,特別是GPT-3.5和GPT-4.0版本。研究發現,GPT-4.0的及格率為72.7%,明顯高於GPT-3.5的54%。此外,GPT-4.0的回答變異性較低,且在15個醫學子專科中有14個超過準確性門檻,顯示其在醫學教育和臨床實踐中的潛在應用價值。總體而言,GPT-4.0在準確性和一致性上表現更佳,值得進一步探索。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-3.5和GPT-4在台灣國家藥師執照考試的表現。結果顯示,GPT-4的準確率為72.9%,明顯優於GPT-3.5的59.1%。在基礎科目中,GPT-4得分更高,顯示其在臨床藥學和教育上的潛力。不過,研究也提醒使用者需謹慎,因為模型仍有局限性。未來應著重改進模型的穩定性和問題設計,以更有效評估學生能力。 PubMed DOI

這項研究評估了ChatGPT-4在重症醫學的表現,使用的數據來自中國的健康專業技術考試。ChatGPT-4回答了600個問題,成功率達73.5%,超過60%的及格標準,基礎知識的準確率最高,達81.94%。單選題表現(76.72%)優於多選題(51.32%)。雖然它在臨床決策和醫學教育上顯示潛力,但仍需醫療專業人員的監督,以確保準確性和病人安全。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在回答台灣醫師執照考試醫學問題的表現,特別關注繁體中文的能力。結果顯示,ChatGPT-3.5在基礎醫學科學的準確率為67.7%,臨床醫學為53.2%;而ChatGPT-4的表現明顯優於前者,準確率分別達到91.9%和90.7%。雖然問題類型對準確率影響不大,但ChatGPT-4在所有科目中均表現良好,顯示AI在醫學教育中的潛力,實施時仍需謹慎考量不同專業的變異性。 PubMed DOI