原始文章

這項研究評估了ChatGPT-4o在模擬歐洲介入放射學委員會(EBIR)考試的表現,正確率達67.0%。GPT-4o還為醫學生和EBIR考生生成不同難度的考題。四位參與者的表現顯示,醫學生在學生級別考題得分46.0%,EBIR持有者在學生級別得74.0%。所有參與者對學生級別考題的正確回答率在82.0%至92.0%之間,顯示其訓練效果良好,且僅有0.3%的考題被認為不合理。總體來看,GPT-4o在模擬EBIR考試及生成考題方面表現出色。 PubMed DOI


站上相關主題文章列表

人工智慧和機器學習對醫療保健產生了巨大影響,特別是在神經外科領域。一項研究發現,GPT-4在神經外科委員會風格問題上表現優異,準確率高於醫學生和住院醫師。這顯示GPT-4在醫學教育和臨床決策上有潛力,能夠超越人類在神經外科專業領域的表現。 PubMed DOI

研究比較GPT-3和GPT-4在放射學病人教育上的效果,結果顯示兩者都提供準確的答案,但GPT-4稍微更優。建議這些模型可用於放射學病人教育,但也要留意可能的限制。 PubMed DOI

ChatGPT是一種AI工具,能像人類一樣產生文字。最近的研究顯示,ChatGPT在英國放射學考試中表現優異,顯示AI在醫學培訓中有潛力,尤其在臨床放射學等領域。 PubMed DOI

研究比較GPT-3.5和GPT-4在德國醫學執照考試的結果,發現GPT-4平均得分85%,比GPT-3.5表現更好。GPT-4在內外科表現優秀,但在學術研究方面稍微弱一些。研究指出,像ChatGPT這樣的人工智慧模型可以提升醫學教育和病人護理,但也提醒醫學訓練者需要具備批判性評估能力。未來需要進一步研究ChatGPT對大眾安全和準確性的影響。 PubMed DOI

卷積神經網路在放射學影像解讀方面的能力越來越強。大型語言模型如GPT-3和GPT-4已在放射學考試中取得高準確率,且GPT-4表現更優。研究正探索這些人工智慧模型在臨床放射學應用的可能性。 PubMed DOI

研究評估GPT-4在放射學考試中的表現,整體準確率為58.5%,比PGY-3低、比PGY-2高。對正確答案信心高,但在影像問題表現較差。重複問題時25.5%答案不同,但準確性不變。微調未改善表現。研究強調AI模型在放射學的潛力和風險,特別提醒在影像問題上應謹慎使用。 PubMed DOI

這項研究評估了ChatGPT-4在類似ARRT認證考試的練習題上的表現,使用了200道選擇題,總共進行了3000次測試。整體準確率為80.56%,文字型問題表現較佳(86.3%),影像型問題則較差(45.6%),且影像問題的回答時間較長。不同領域的表現差異明顯,安全性72.6%、影像製作70.6%、病人護理67.3%、程序53.4%。研究顯示ChatGPT-4在ARRT題庫上表現不錯,但仍需進一步研究與實際考試結果的關聯,影像處理的進步對教育應用也很重要。 PubMed DOI

這項研究評估了GPT-4與GPT-3.5及家庭醫學住院醫師在2022年美國家庭醫學委員會考試中的表現。結果顯示,GPT-4的準確率達84%,明顯高於GPT-3.5的56%,標準分數提升410分。定性分析指出,GPT-4能整合新資訊並自我修正,展現高準確性和快速學習能力。研究強調,GPT-4在臨床決策中具潛力,同時也提醒醫生在運用人工智慧時,需具備批判性思考和終身學習的能力。 PubMed DOI

這項研究評估了具備視覺功能的GPT-4(GPT-4V)在放射科考試中的表現,涵蓋文字和影像問題。研究期間為2023年9月至2024年3月,分析了386道美國放射學會的退役問題。結果顯示,GPT-4V正確回答65.3%的問題,其中文字問題得分81.5%,而影像問題僅47.8%。研究還發現,思維鏈提示對文字問題的表現較佳,但影像問題的提示效果差異不大。總體來看,GPT-4V在文字問題上表現優異,但在影像解讀上則較為薄弱。 PubMed DOI

這項研究評估了GPT-4o在歐洲放射學委員會考試中的表現,結果顯示它在選擇題和短案例問題上超過了平均放射科醫生的分數(70.2%對58.4%)。不過,在臨床推理部分,GPT-4o的得分低於平均及及格分數(52.9%對66.1%)。該模型在超聲影像問題上表現優異(87.5-100%),但在影片問題上則較差(50.6%)。整體來看,這項研究顯示大型語言模型如GPT-4o在協助放射科醫生方面的潛力。 PubMed DOI