原始文章

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI


站上相關主題文章列表

研究使用日本眼科醫學考試問題測試ChatGPT在眼科領域表現,結果顯示ChatGPT-4比3.5更準確,前者在少提示下約46%正確,接近考生70%。在眼瞼整形、眼眶和眼部腫瘤表現最佳,小兒眼科最差。研究建議ChatGPT可成為日本眼科醫學寶貴工具。 PubMed DOI

一個名叫ChatGPT的AI模型參加了日本急診醫學協會的考試,回答了475題中的465題正確。對文字問題比圖像問題表現更好,整體正確率為62.3%。錯誤主要是因為事實不準確。雖然有潛力,但在急診醫學中使用大型語言模型仍需醫師監督。 PubMed DOI

研究發現,ChatGPT-4 Vision (GPT-4V)在回答耳鼻喉科醫學委員會認證考試的表現,加入英文翻譯和提示有助提高正確率。圖像問題表現較差,但加入文字與圖像輸入後有改善。研究指出人工智慧在醫學領域的潛力與限制,GPT-4V在處理圖像問題上仍有進步空間。 PubMed DOI

AI在醫學領域的進步可能會改變許多醫學專業人員的工作。一項研究評估了Open AI的ChatGPT在日本國家醫學資格考試(NMLE)上的表現,包括圖像問題。研究顯示,GPT-4/4V表現優秀,甚至達到或超越考生所需的最低分數。這研究凸顯了AI在醫學教育中的潛力。 PubMed DOI

研究指出,ChatGPT回答日本內科專家問題的整體準確率為59.05%,對非圖像問題的準確率提升至65.76%,但仍不及人類專家。ChatGPT在持續正確回答的問題(CCA)和持續錯誤回答的問題(CIA)之間有明顯的準確性差異。因此,ChatGPT應被視為醫學判斷的輔助,而非替代。未來應進一步研究,以更好整合ChatGPT等人工智慧工具到專業醫學實務中。 PubMed DOI

這項系統性回顧評估了ChatGPT(特別是GPT-3.5、4和4V)在日本醫療和健康執照考試中的有效性。研究分析了2022年1月到2024年4月間的22篇文章,結果顯示GPT-4雖能通過文字考試,但表現不如實際考生。此外,最新的GPT-4V在圖像識別上表現不佳,對視覺問題的回應也不夠充分。這些結果顯示,為了提升評估結果,仍需在精確度上進行改進。 PubMed DOI

這項研究評估了ChatGPT 4.0在日本物理治療師國考中的表現,針對其回答複雜問題的能力進行分析。研究涵蓋了1,000道題目,結果顯示整體正確率為73.4%,符合及格標準。一般性問題的正確率較高,達80.1%,但實務問題僅46.6%。文字問題表現良好(80.5%),但涉及圖片和表格的問題則較差(35.4%)。這顯示ChatGPT在文字問題上有優勢,但在實務及視覺數據問題上仍需改進,未來在臨床復健和教育方面有潛力,但需進一步提升。 PubMed DOI

這項研究評估了GPT-4.0在2021至2023年日本醫學執照考試的表現,重點在於準確性和醫學知識解析能力。問題依難度和類型分類,包括一般和臨床部分,以及單選和多選題。GPT-4.0的正確回答率達80.4%,顯示出合格的表現,但不同問題的準確性有顯著差異。研究結果顯示,雖然GPT-4.0在醫學教育和研究中有價值,但仍需大量醫學數據來提升準確性,整合ChatGPT進醫學領域可能帶來新機會。 PubMed DOI

這項研究評估了ChatGPT,特別是GPT-4 Omni版本,在第118屆日本醫學執照考試中的表現,分析了文字和影像兩種問題。整體來看,這個模型的準確率相當高,且在兩種問題類型之間沒有明顯差異。不過,它在臨床判斷和優先順序上出現了一些常見錯誤,顯示出在醫學教育和實踐中,持續改進AI的使用是很有必要的。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI