原始文章

這項研究發現,ChatGPT-4o在日本牙體技術師考試的基礎知識題表現不錯,但遇到專業、需要看圖或操作的題目就比較不行。它在牙科材料題的正確率最高,但在矯正和兒童牙科技術題表現較差。整體來說,ChatGPT-4o適合當牙科學習輔助工具,但影像辨識和操作模擬能力還要再加強。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種人工智慧模型在日本國家牙科考試中的表現,包括 ChatGPT 3.5、ChatGPT 4o mini 和 Gemini。分析了過去五年中 400 道必考題的 349 道,結果顯示 ChatGPT 4o mini 的表現最佳,達到兩年的及格標準,並獲得最高總分。在「社會與牙科」和「主要徵兆」類別中,ChatGPT 4o mini 明顯優於 ChatGPT 3.5。研究顯示,ChatGPT 4o mini 在牙科教育上有很大潛力,提升其能力可能對臨床應用有幫助。 PubMed DOI

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

這項研究評估了OpenAI的GPT-4V和Google的Gemini Pro在日本國家牙科考試(JNDE)問題上的影像識別能力。分析了第116屆JNDE的160個問題,結果顯示GPT-4V的正確率為35.0%,而Gemini Pro為28.1%。雖然GPT-4V表現較佳,但差異不具統計意義。研究指出,隨著問題中圖片數量增加,正確率下降,顯示問題複雜性影響模型表現。這些結果顯示大型語言模型在牙科教育上的潛力,並強調技術進一步發展的必要性。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

這項研究發現,ChatGPT(GPT-4o)在日本生物醫學工程一級認證考試的答對率約為58%到68%,只有一年有及格。主要錯誤來自知識不足、理解錯誤或亂編答案。雖然有一定表現,但目前還不夠穩定,無法完全信賴。 PubMed DOI

這項研究發現,牙醫系學生在牙齒解剖學選擇題考試的表現優於ChatGPT,學生平均分數74.28%,ChatGPT則為60%。雖然ChatGPT有基本理解力,能及格,但準確度和可靠性還是不夠,所以不建議單靠它來學牙齒解剖學。 PubMed DOI

這項研究發現,經過假牙修復專業資料微調的ChatGPT-4,在美國假牙修復專科住院醫師模擬考試的表現,明顯優於原始版本(正確率73.6%比62.7%)。微調能大幅提升AI在專業醫學領域的準確度,但部分主題還需加強訓練。 PubMed DOI

這項研究發現,GPT-4在口腔顎面外科專科考題的整體正確率為62%,對藥理學和解剖學表現較好,但在牙科植體和正顎手術等專業題目較弱。顯示GPT-4對一般醫學教育有幫助,但在專業領域還有待加強,未來應持續改進才能應用於進階醫療。 PubMed DOI

這項研究發現,ChatGPT-4.0在ITI植牙認證考試的表現已經跟合格牙醫師差不多,明顯比ChatGPT-3.5好。雖然AI有潛力成為牙科專業的輔助工具,但還需要進一步研究,尤其是針對能看懂影像和影片的AI模型。 PubMed DOI