原始文章

這項研究比較了ChatGPT-3.5和4在產生日文核醫檢查說明的表現,由19位技術師評分。結果顯示,ChatGPT-4表現明顯較佳,大多數說明被評為中上或優秀。不過,專家監督仍不可少,未來還需進一步研究風險與安全性。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在台灣核子醫學專業考試中表現優異,尤其在理論知識和臨床醫學方面。然而,在醫學法規問題上稍嫌不足。研究使用GPT-4和思維鏈方法提升人工智慧表現,建議問題適中且含較多英文單詞可提高準確性。人工智慧可協助評估考試難度,確保公平性,在醫療教育和多語環境中展現潛力,未來進步將提升其在醫學領域的實用性。 PubMed DOI

AI在醫學領域的進步可能會改變許多醫學專業人員的工作。一項研究評估了Open AI的ChatGPT在日本國家醫學資格考試(NMLE)上的表現,包括圖像問題。研究顯示,GPT-4/4V表現優秀,甚至達到或超越考生所需的最低分數。這研究凸顯了AI在醫學教育中的潛力。 PubMed DOI

研究指出,ChatGPT回答日本內科專家問題的整體準確率為59.05%,對非圖像問題的準確率提升至65.76%,但仍不及人類專家。ChatGPT在持續正確回答的問題(CCA)和持續錯誤回答的問題(CIA)之間有明顯的準確性差異。因此,ChatGPT應被視為醫學判斷的輔助,而非替代。未來應進一步研究,以更好整合ChatGPT等人工智慧工具到專業醫學實務中。 PubMed DOI

這項系統性回顧評估了ChatGPT(特別是GPT-3.5、4和4V)在日本醫療和健康執照考試中的有效性。研究分析了2022年1月到2024年4月間的22篇文章,結果顯示GPT-4雖能通過文字考試,但表現不如實際考生。此外,最新的GPT-4V在圖像識別上表現不佳,對視覺問題的回應也不夠充分。這些結果顯示,為了提升評估結果,仍需在精確度上進行改進。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答2018至2022年日本醫學物理師考試問題的表現。結果顯示,ChatGPT-4.0的正確率為72.7%,明顯高於ChatGPT-3.5的42.2%。不過,兩者在輻射計量及輻射相關法律和醫學倫理方面的表現較差,正確率分別為55.6%和40.0%。這些結果為ChatGPT在醫學物理領域的應用提供了基準,並可作為開發相關工具的參考,特別是在日本的放射治療支持上。 PubMed DOI

這項研究評估了ChatGPT 4.0在日本物理治療師國考中的表現,針對其回答複雜問題的能力進行分析。研究涵蓋了1,000道題目,結果顯示整體正確率為73.4%,符合及格標準。一般性問題的正確率較高,達80.1%,但實務問題僅46.6%。文字問題表現良好(80.5%),但涉及圖片和表格的問題則較差(35.4%)。這顯示ChatGPT在文字問題上有優勢,但在實務及視覺數據問題上仍需改進,未來在臨床復健和教育方面有潛力,但需進一步提升。 PubMed DOI

這項研究評估了ChatGPT,特別是GPT-4 Omni版本,在第118屆日本醫學執照考試中的表現,分析了文字和影像兩種問題。整體來看,這個模型的準確率相當高,且在兩種問題類型之間沒有明顯差異。不過,它在臨床判斷和優先順序上出現了一些常見錯誤,顯示出在醫學教育和實踐中,持續改進AI的使用是很有必要的。 PubMed DOI

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI