原始文章

這項研究評估了ChatGPT-3.5和ChatGPT-4.0在回答2018至2022年日本醫學物理師考試問題的表現。結果顯示,ChatGPT-4.0的正確率為72.7%,明顯高於ChatGPT-3.5的42.2%。不過,兩者在輻射計量及輻射相關法律和醫學倫理方面的表現較差,正確率分別為55.6%和40.0%。這些結果為ChatGPT在醫學物理領域的應用提供了基準,並可作為開發相關工具的參考,特別是在日本的放射治療支持上。 PubMed DOI


站上相關主題文章列表

研究發現大型語言模型(LLMs)在回答放射腫瘤學物理問題上有應用價值。ChatGPT(GPT-4)在演繹推理能力方面表現優異,但合作的醫學物理師團隊仍可超越其。LLMs有助於放射腫瘤學專家,值得進一步探討。 PubMed DOI

研究評估大型語言模型在臨床放射學問題上的表現,使用JRBE考題,發現GPT-4比其他模型表現更好。GPT-4在簡單問題、單一答案及核醫學方面表現優異,顯示在日本放射學領域有應用潛力。 PubMed DOI

ChatGPT是OpenAI開發的AI,擅長自然直覺回答。雖然有時會出錯,但經過訓練改進。新版GPT-4預計比GPT-3.5多40%正確回答。在英文表現優秀,現正評估其他語言的醫學資訊。在日本醫學研究中,GPT-4比GPT-3.5表現更好,正確率達81.5%。有潛力成為醫師診斷輔助工具,符合日本醫學執照考試標準。透過持續學習,ChatGPT可成為醫學專業人士的決策支援系統。 PubMed DOI

研究發現ChatGPT在台灣核子醫學專業考試中表現優異,尤其在理論知識和臨床醫學方面。然而,在醫學法規問題上稍嫌不足。研究使用GPT-4和思維鏈方法提升人工智慧表現,建議問題適中且含較多英文單詞可提高準確性。人工智慧可協助評估考試難度,確保公平性,在醫療教育和多語環境中展現潛力,未來進步將提升其在醫學領域的實用性。 PubMed DOI

ChatGPT是一個強大的語言模型,於2022年11月問世,對自然語言處理產生了重大影響。它啟發了全球臨床實踐和研究中使用大型語言模型。一項研究評估了GPT模型在日本國家醫學執照考試(NMLE)上的表現,並將其與通過率進行了比較。研究發現,經過優化提示的GPT-4在考試中取得了及格分數。分析確定了導致答錯的因素,例如缺乏醫學知識和日本特定信息的錯誤。總的來說,GPT模型可以成為醫學領域中有價值的工具,有助應對挑戰並改善醫療保健。 PubMed DOI

機器學習和自然語言處理技術進步,如ChatGPT,能提供自然語言回應和知識查詢。研究發現ChatGPT在放射線治療問題上表現良好,但仍有一致性挑戰。LLMs未來將對社會和臨床實踐產生更大影響,尤其在放射腫瘤學領域。 PubMed DOI

研究探討了ChatGPT(GPT-4)在加拿大醫學放射技術協會(CAMRT)的放射技術、MRI、核子醫學和輻射治療認證考試中的表現。ChatGPT每次參加考試都重複進行五次,並根據問題類型和學科對其表現進行了分析。ChatGPT通過了考試,但在不同類型的問題上表現不同,對知識問題的表現最佳,對批判性思考問題的表現最差。在多次嘗試中,ChatGPT的回答之間存在著相當高的一致性至幾乎完美的一致性。該研究顯示,ChatGPT能夠通過放射技術師和治療師的認證考試,但在不同學科之間表現有所不同。未來研究應考慮在評估ChatGPT在標準化測試中的表現時使用重複測量。 PubMed DOI

這項研究評估了ChatGPT在腫瘤學考試問題上的準確性,使用了單次學習的方法。研究中將600道來自國家放射腫瘤學在職考試的選擇題輸入到ChatGPT 4o和3.5中。結果顯示,ChatGPT 4o的正確率為72.2%,而3.5則為53.8%。在不同問題類別中,特別是關鍵研究和治療建議方面,ChatGPT的表現較弱。儘管有些限制,最新版本的ChatGPT顯示出顯著改進,未來在腫瘤學醫學訓練和決策中可能成為有價值的資源。 PubMed DOI

這項研究評估了ChatGPT-4在類似ARRT認證考試的練習題上的表現,使用了200道選擇題,總共進行了3000次測試。整體準確率為80.56%,文字型問題表現較佳(86.3%),影像型問題則較差(45.6%),且影像問題的回答時間較長。不同領域的表現差異明顯,安全性72.6%、影像製作70.6%、病人護理67.3%、程序53.4%。研究顯示ChatGPT-4在ARRT題庫上表現不錯,但仍需進一步研究與實際考試結果的關聯,影像處理的進步對教育應用也很重要。 PubMed DOI

這項研究評估了GPT-4 V在日本國家臨床工程師執照考試的表現,分析了2012至2023年的2,155道題目。該模型的平均正確率為86.0%,在臨床醫學和基礎醫學領域特別高(≥ 90%)。不過,在醫療設備安全管理等領域的表現較差,正確率僅64.8%到76.5%。涉及圖形和計算的問題準確率更低,特別是需要了解日本工業標準的問題,正確率僅31.0%。研究指出ChatGPT在圖像識別和理解特定標準方面的局限性,使用時需謹慎。 PubMed DOI