原始文章

這項研究評估了GPT-4o在回答歐洲放射學文憑考試的表現,並與人類考生進行比較。2024年10月,42名考生與26名使用GPT-4o的醫學生比較,結果顯示GPT-4o平均得分82.1%,遠高於考生的49.4%(p < 0.0001)。GPT-4o在放射學各子專科的真陽性率較高,假陽性率較低,僅在資訊學方面表現不佳。GPT-4o的回答一致性接近完美,而考生則中等。調查顯示參與者普遍使用複製和粘貼功能,73%的人尋求澄清。總體而言,GPT-4o在低階問題上表現優於人類考生,顯示其潛力。未來需進一步研究其在不同問題類型和考生背景中的有效性。 PubMed DOI


站上相關主題文章列表

卷積神經網路在放射學影像解讀方面的能力越來越強。大型語言模型如GPT-3和GPT-4已在放射學考試中取得高準確率,且GPT-4表現更優。研究正探索這些人工智慧模型在臨床放射學應用的可能性。 PubMed DOI

這項研究評估了ChatGPT-4在類似ARRT認證考試的練習題上的表現,使用了200道選擇題,總共進行了3000次測試。整體準確率為80.56%,文字型問題表現較佳(86.3%),影像型問題則較差(45.6%),且影像問題的回答時間較長。不同領域的表現差異明顯,安全性72.6%、影像製作70.6%、病人護理67.3%、程序53.4%。研究顯示ChatGPT-4在ARRT題庫上表現不錯,但仍需進一步研究與實際考試結果的關聯,影像處理的進步對教育應用也很重要。 PubMed DOI

這項研究評估了ChatGPT-4o在模擬歐洲介入放射學委員會(EBIR)考試的表現,正確率達67.0%。GPT-4o還為醫學生和EBIR考生生成不同難度的考題。四位參與者的表現顯示,醫學生在學生級別考題得分46.0%,EBIR持有者在學生級別得74.0%。所有參與者對學生級別考題的正確回答率在82.0%至92.0%之間,顯示其訓練效果良好,且僅有0.3%的考題被認為不合理。總體來看,GPT-4o在模擬EBIR考試及生成考題方面表現出色。 PubMed DOI

這項研究評估了GPT-4(特別是ChatGPT)在解讀腦腫瘤MRI報告的診斷能力。研究分析了150份術前病患的報告,結果顯示GPT-4的診斷準確率為73%,而神經放射科醫師則為80%。在鑑別診斷方面,GPT-4的準確率高達94%,放射科醫師則介於73%到89%之間。研究結果表明,GPT-4可作為神經放射科醫師的有用第二意見,並能成為一般放射科醫師和住院醫師的指導工具,顯示其在臨床診斷中的潛力。 PubMed DOI

這項研究評估了具備視覺功能的GPT-4(GPT-4V)在放射科考試中的表現,涵蓋文字和影像問題。研究期間為2023年9月至2024年3月,分析了386道美國放射學會的退役問題。結果顯示,GPT-4V正確回答65.3%的問題,其中文字問題得分81.5%,而影像問題僅47.8%。研究還發現,思維鏈提示對文字問題的表現較佳,但影像問題的提示效果差異不大。總體來看,GPT-4V在文字問題上表現優異,但在影像解讀上則較為薄弱。 PubMed DOI

這項研究評估了GPT-4o在歐洲放射學委員會考試中的表現,結果顯示它在選擇題和短案例問題上超過了平均放射科醫生的分數(70.2%對58.4%)。不過,在臨床推理部分,GPT-4o的得分低於平均及及格分數(52.9%對66.1%)。該模型在超聲影像問題上表現優異(87.5-100%),但在影片問題上則較差(50.6%)。整體來看,這項研究顯示大型語言模型如GPT-4o在協助放射科醫生方面的潛力。 PubMed DOI

這項研究評估了具備視覺能力的AI模型GPT-4V在解讀放射影像的表現,並與放射科醫師及住院醫師進行比較。研究涵蓋72個放射案例,結果顯示GPT-4V的整體準確率為43%。在影像和非影像依賴的案例中,醫師的表現並未顯著優於GPT-4V。特別是,GPT-4V在僅使用文字輸入時的準確率較高(50%),而僅使用影像輸入則為38%。總體來看,GPT-4V的表現與人類相當,且未能提升人類的解讀準確性。 PubMed DOI

這項研究評估了ChatGPT(GPT-3.5和GPT-4)在根據放射學轉錄生成鑑別診斷的表現。分析了339個案例,結果顯示GPT-4的準確性較高,正確診斷比例為66.1%,而GPT-3.5為53.7%。雖然GPT-4在準確性和虛構參考文獻方面表現較佳,但兩者在重複性上仍有問題。總體來看,ChatGPT在醫學上可作為有用工具,但使用時需謹慎以避免不準確性。 PubMed DOI

這項研究評估了GPT-4在神經放射學中生成鑑別診斷的效果,並與專業神經放射科醫師進行比較。研究分析了60份報告,結果顯示GPT-4在61.7%的案例中正確包含實際診斷,而醫師的準確率在63.3%到73.3%之間。GPT-4與醫師的協議程度被評為公平到中等。雖然GPT-4在輔助放射學工作上顯示潛力,但準確性仍不及人類專家,這強調了了解其局限性的重要性。 PubMed DOI

這項研究評估了多種大型語言模型在回答放射科考試問題的表現,特別是GPT-4。分析了150道選擇題,結果顯示GPT-4的準確率達83.3%,明顯優於其他模型,如Claude(62%)、Bard(54.7%)、Tongyi Qianwen(70.7%)和Gemini Pro(55.3%)。研究指出,模型表現因問題類型和醫學專科而異,GPT-4在簡單及複雜問題上均表現良好。雖然GPT-4和Tongyi Qianwen在醫學教育上有潛力,但仍需專門訓練數據以提升在放射科的有效性。 PubMed DOI