原始文章

這項研究評估了GPT-4(特別是ChatGPT)在解讀腦腫瘤MRI報告的診斷能力。研究分析了150份術前病患的報告,結果顯示GPT-4的診斷準確率為73%,而神經放射科醫師則為80%。在鑑別診斷方面,GPT-4的準確率高達94%,放射科醫師則介於73%到89%之間。研究結果表明,GPT-4可作為神經放射科醫師的有用第二意見,並能成為一般放射科醫師和住院醫師的指導工具,顯示其在臨床診斷中的潛力。 PubMed DOI


站上相關主題文章列表

研究比較不同影像學模式的放射學報告複雜程度,並試驗ChatGPT簡化報告至八年級閱讀水準。分析400份報告後發現,CT和MRI報告比US和XR較難。ChatGPT成功簡化報告,減少字數、提高可讀性,並降低閱讀難度。研究顯示ChatGPT在簡化放射學報告以提升患者理解上相當有效。 PubMed DOI

研究比較了GPT模型和放射科醫師生成放射學報告的表現,結果顯示GPT-4在準確性上優於GPT-2和GPT-3.5,但仍不及醫師。醫師在印象和鑑別診斷方面表現較佳。GPT-3.5和GPT-4生成的報告可讀性高,但準確性仍需醫師驗證。 PubMed DOI

研究發現ChatGPT 4.0在放射學診斷測驗中整體準確率為57.86%,不同部位準確率有差異,頭頸部最高。結論指出,人工智慧模型或許可提升放射學診斷能力,對病患照護及醫學教育有正面影響。 PubMed DOI

研究評估了基於GPT-4結構的Chat Generative Pre-trained Transformer (ChatGPT) 在神經放射學的診斷表現,使用了《美國神經放射學雜誌》中的100個案例。ChatGPT在診斷上達到50%的準確率,不同解剖位置的準確性沒有太大差異,但在大腦中樞神經系腫瘤的案例中,準確性稍微較低。 PubMed DOI

研究指出,ChatGPT-4在神經腫瘤學案例中比ChatGPT-3.5表現更好。ChatGPT-4的診斷準確率為85%,治療計劃準確率為75%,明顯高於ChatGPT-3.5的65%和10%。神經外科醫生認為ChatGPT-4準確性較佳,有潛力成為神經腫瘤學的診斷工具。 PubMed DOI

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在神經放射學案例的診斷表現。結果顯示,放射科醫師的準確率比ChatGPT高。GPT-4V的ChatGPT表現更差。總結來說,ChatGPT在挑戰性案例的診斷上不如放射科醫師。 PubMed DOI

這項研究評估了由人工智慧驅動的聊天機器人GPT-4在醫學病例報告中從潛在診斷清單中識別最終診斷的能力。GPT-4在識別最終診斷方面與醫師表現出公平至良好的一致性,顯示其有潛力協助臨床決策。需要在真實世界情境和不同臨床環境中進行進一步驗證,以充分了解其在醫學診斷中的實用性。 PubMed DOI

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在106個案例的肌肉骨骼放射學診斷準確性。結果顯示,基於GPT-4的ChatGPT準確率為43%,優於基於GPT-4V的ChatGPT的8%。放射科醫師的準確率分別為41%和53%。ChatGPT表現接近住院醫師,但不及認證放射科醫師。放射科醫師需了解ChatGPT的診斷表現,強調提供詳細影像描述以提高準確性。 PubMed DOI

這項研究探討了利用自然語言處理(NLP)技術,特別是ChatGPT,來提升放射科報告的產出效率。研究人員分析了1,000條來自MIMIC胸部X光數據庫的記錄,並使用Claude.ai提取關鍵字,再透過ChatGPT生成報告。結果顯示,Bart和XLM模型的報告與醫生撰寫的相似度高達99.3%,而其他模型表現較差。研究強調選擇合適的NLP模型對於提升放射科報告的效率和準確性至關重要。 PubMed DOI

這項研究評估了ChatGPT-3.5在生成乳房超音波報告的BI-RADS分類的有效性,目的是提升醫療診斷的準確性和可解釋性。研究分析了131名患者的報告,並將AI生成的結果與57位醫生的報告進行比較。結果顯示,雖然AI在結構和清晰度上表現良好,但在BI-RADS分類準確性和惡性診斷上仍需改進。研究也探討了「思考鏈」方法,顯示AI在模擬臨床決策過程中的潛力,整體而言,ChatGPT-3.5對乳房超音波評估的診斷結果有助益。 PubMed DOI