原始文章

這項研究發現,ChatGPT在日本醫療資訊考試中,醫療保健、資訊科技和健康資訊系統領域表現不錯,但在標準和法律題目上較差。結論提醒,ChatGPT的答案可能有誤,查詢相關資訊時要特別謹慎。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI

這項研究比較了ChatGPT-3.5和4在產生日文核醫檢查說明的表現,由19位技術師評分。結果顯示,ChatGPT-4表現明顯較佳,大多數說明被評為中上或優秀。不過,專家監督仍不可少,未來還需進一步研究風險與安全性。 PubMed DOI

這項研究發現,ChatGPT-4在有選擇題選項時,答對率超過86%,但沒選項時最低只有61.5%。它在管理問題上比診斷問題更容易出錯。雖然GPT-4能處理臨床資訊,但不是真的懂臨床情境。未來如果和專業醫療人員搭配,有機會幫助臨床工作,但還需要更多測試來確保安全和有效。 PubMed DOI

這項研究發現,ChatGPT(GPT-4o)在日本生物醫學工程一級認證考試的答對率約為58%到68%,只有一年有及格。主要錯誤來自知識不足、理解錯誤或亂編答案。雖然有一定表現,但目前還不夠穩定,無法完全信賴。 PubMed DOI

這項研究發現,ChatGPT-4在分析日文質性訪談時,對於簡單、描述性的主題表現跟人類差不多,但遇到有文化或情感層面的議題就明顯不如人類。AI適合協助基礎主題辨識,但要深入解讀還是得靠專家。研究也提醒,AI在非英文環境還有進步空間,使用時要注意倫理和法律問題。 PubMed DOI

調查發現,多數醫療專業人員已經用過ChatGPT,主要拿來寫作、查資料和跟病人溝通。他們覺得ChatGPT能提升效率、方便找資訊,但也擔心準確度、隱私和抄襲等問題。大家普遍支持加強資料安全。雖然ChatGPT很有幫助,但還需要更多研究和保障措施,才能安心用在醫療領域。 PubMed DOI

這項研究發現,ChatGPT-4 和 Copilot 在日本護理師國考題目上表現及格,ChatGPT-3.5 則沒過關。三款模型在涉及日本特有法律和社會保障制度的題目上表現最差,顯示需要在地知識時,LLMs 容易出錯。整體來說,較新版本的 LLMs 準確度較高。 PubMed DOI

這項研究發現,ChatGPT 3.5在伊朗醫師執照考試中,用英文作答的正確率(61.4%)明顯高於波斯語(35.7%),整體正確率為48.5%,一致性高達91%。在基礎醫學和實習前考試有及格表現,住院醫師前考試則僅達最低標準,顯示其在醫學教育上有潛力,但語言能力仍有限。 PubMed DOI

這項研究發現,ChatGPT-4o在日本牙體技術師考試的基礎知識題表現不錯,但遇到專業、需要看圖或操作的題目就比較不行。它在牙科材料題的正確率最高,但在矯正和兒童牙科技術題表現較差。整體來說,ChatGPT-4o適合當牙科學習輔助工具,但影像辨識和操作模擬能力還要再加強。 PubMed DOI