原始文章

這項研究針對微調RoBERTa模型,目的是自動檢測放射報告中的意外發現,以協助放射科醫師。使用的數據集包含44,631份報告進行訓練,5,293份進行初步測試,還有100份用於比較測試。結果顯示,微調後的RoBERTa模型在初步測試集上準確率達86.15%,比較測試集為79%,明顯優於ChatGPT的64%和CNN的49%。整體來看,微調的RoBERTa模型在檢測意外發現方面表現更佳。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT將放射學報告翻譯成易懂語言,供患者和醫護參考。ChatGPT翻譯成功率高,且提供37%相關建議。雖有簡化,但更詳細提示可改進。與GPT-4比較,顯示報告品質提升。建議臨床教育可使用大型語言模型,並有進一步改進空間。 PubMed DOI

研究比較不同影像學模式的放射學報告複雜程度,並試驗ChatGPT簡化報告至八年級閱讀水準。分析400份報告後發現,CT和MRI報告比US和XR較難。ChatGPT成功簡化報告,減少字數、提高可讀性,並降低閱讀難度。研究顯示ChatGPT在簡化放射學報告以提升患者理解上相當有效。 PubMed DOI

研究比較了GPT模型和放射科醫師生成放射學報告的表現,結果顯示GPT-4在準確性上優於GPT-2和GPT-3.5,但仍不及醫師。醫師在印象和鑑別診斷方面表現較佳。GPT-3.5和GPT-4生成的報告可讀性高,但準確性仍需醫師驗證。 PubMed DOI

這項研究評估了使用ChatGPT自動生成的醫學文本的準確性和易讀性。不同版本的磁共振成像(MRI)結果被創建並由醫學專業人員和患者評估。報告被發現一致地準確且易於理解,簡化版本對患者來說更容易理解。儘管簡化的報告有幫助,但並不能取代專家和患者之間進行詳細討論的必要性。 PubMed DOI

研究比較了基於GPT-4的ChatGPT、基於GPT-4V的ChatGPT和放射科醫師在神經放射學案例的診斷表現。結果顯示,放射科醫師的準確率比ChatGPT高。GPT-4V的ChatGPT表現更差。總結來說,ChatGPT在挑戰性案例的診斷上不如放射科醫師。 PubMed DOI

最新研究指出,ChatGPT 3.5和GPT-4在放射學診斷上表現優異。研究發現,使用不同提示影響它們對胸部放射學案例的診斷準確性。124個案例顯示,複雜提示顯著提升模型準確性。ChatGPT 3.5使用複雜提示後,準確率從25%提升至56.5%,GPT-4基準準確率為53.2%,使用複雜提示後提升至59.7%。研究強調提示工程對提升模型診斷性能的重要性。 PubMed DOI

ChatGPT是一個基於Transformer的大型語言模型,引起全球矚目。它展現在放射學報告上的潛力,這是以往專注於影像分析的領域。研究發現,ChatGPT有助於放射科醫師,但也存在隱私、可靠性、錯誤和缺乏醫學訓練等問題。人工智慧可提升放射學報告的準確性和標準化,未來或整合動態提示、ChatGPT和RAG到診斷流程中。持續研究、開發和道德監督至關重要。 PubMed DOI

這項研究探討了利用自然語言處理(NLP)技術,特別是ChatGPT,來提升放射科報告的產出效率。研究人員分析了1,000條來自MIMIC胸部X光數據庫的記錄,並使用Claude.ai提取關鍵字,再透過ChatGPT生成報告。結果顯示,Bart和XLM模型的報告與醫生撰寫的相似度高達99.3%,而其他模型表現較差。研究強調選擇合適的NLP模型對於提升放射科報告的效率和準確性至關重要。 PubMed DOI

這項研究評估了GPT-4(特別是ChatGPT)在解讀腦腫瘤MRI報告的診斷能力。研究分析了150份術前病患的報告,結果顯示GPT-4的診斷準確率為73%,而神經放射科醫師則為80%。在鑑別診斷方面,GPT-4的準確率高達94%,放射科醫師則介於73%到89%之間。研究結果表明,GPT-4可作為神經放射科醫師的有用第二意見,並能成為一般放射科醫師和住院醫師的指導工具,顯示其在臨床診斷中的潛力。 PubMed DOI

這項研究評估了ChatGPT-3.5在生成乳房超音波報告的BI-RADS分類的有效性,目的是提升醫療診斷的準確性和可解釋性。研究分析了131名患者的報告,並將AI生成的結果與57位醫生的報告進行比較。結果顯示,雖然AI在結構和清晰度上表現良好,但在BI-RADS分類準確性和惡性診斷上仍需改進。研究也探討了「思考鏈」方法,顯示AI在模擬臨床決策過程中的潛力,整體而言,ChatGPT-3.5對乳房超音波評估的診斷結果有助益。 PubMed DOI