原始文章

這項研究比較了ChatGPT-3.5和4在產生日文核醫檢查說明的表現,由19位技術師評分。結果顯示,ChatGPT-4表現明顯較佳,大多數說明被評為中上或優秀。不過,專家監督仍不可少,未來還需進一步研究風險與安全性。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT4o在回答日本認證物理醫師考試問題的表現,重點在於準確性及其作為教育和臨床支援工具的潛力。2021年正確率79.1%,2022年80.0%,2023年達86.3%,整體準確率為81.8%。文字型問題表現較佳,正確率83.0%,影像型問題則為70.0%。大部分錯誤與資訊問題有關,佔92.8%。研究顯示,雖然ChatGPT4o在教育上有潛力,但在臨床應用,特別是影像解讀和專業主題上仍需改進。 PubMed DOI

本研究評估了ChatGPT(GPT-4V)在日本醫療資訊技術人員(HCIT)認證考試中的表現。經過三年,分析了476道考題,結果顯示ChatGPT的正確回答率達84%,成功通過考試。簡單選擇題的表現優於多選題,且帶圖片的問題和需要計算的題目正確率較低。總體而言,ChatGPT具備HCIT認證所需的基本知識和技能,顯示其在醫療資訊領域的潛力。 PubMed DOI

這項研究探討了ChatGPT-4在將醫學術語翻譯成病人易懂語言的效果,並與不同醫師群體進行比較。研究評估了105個醫學術語,結果顯示ChatGPT-4的準確率達到100%,超過專科醫師(98.1%)、住院醫師(93.3%)和一般醫師(84.8%)。這些差異具有統計學意義,顯示ChatGPT-4在病人教育上是個可靠工具。不過,研究也強調醫療專業人員在臨床決策中的重要性仍不可或缺。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在回答台灣醫師執照考試醫學問題的表現,特別關注繁體中文的能力。結果顯示,ChatGPT-3.5在基礎醫學科學的準確率為67.7%,臨床醫學為53.2%;而ChatGPT-4的表現明顯優於前者,準確率分別達到91.9%和90.7%。雖然問題類型對準確率影響不大,但ChatGPT-4在所有科目中均表現良好,顯示AI在醫學教育中的潛力,實施時仍需謹慎考量不同專業的變異性。 PubMed DOI

這項研究發現,GPT-4在回答放射治療常見問題時,比GPT-3.5表現更好,但兩者的回答對一般人來說還是太難懂,也有可能出現錯誤資訊。建議在正式用於病人前,還需要加強內容的易讀性和正確性。 PubMed DOI

這項研究發現,ChatGPT(GPT-4o)在日本生物醫學工程一級認證考試的答對率約為58%到68%,只有一年有及格。主要錯誤來自知識不足、理解錯誤或亂編答案。雖然有一定表現,但目前還不夠穩定,無法完全信賴。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究發現,ChatGPT在日本醫療資訊考試中,醫療保健、資訊科技和健康資訊系統領域表現不錯,但在標準和法律題目上較差。結論提醒,ChatGPT的答案可能有誤,查詢相關資訊時要特別謹慎。 PubMed DOI

這項研究發現,ChatGPT 4.0對經驗較少的放射師特別有幫助,能協助學習和減輕壓力,但對資深放射師來說,進階問題的回答還不夠清楚和精確。整體而言,ChatGPT適合用於放射師教育和臨床輔助,但還需要再優化才能完全滿足專家需求。 PubMed DOI