原始文章

這項研究探討使用AI模型ChatGPT-4o來簡化乳房放射學報告,讓病人更容易理解。經驗豐富的放射科醫師選擇了21份匿名報告,並請ChatGPT-4o用簡單語言解釋。五位放射科醫師評估簡化報告的準確性、完整性和潛在危害,結果顯示簡化報告在準確性和完整性上表現良好,且潛在危害低。非醫療背景的讀者對簡化報告的理解度也很高。研究指出,雖然BI-RADS 0、1和2的報告較易解釋,但BI-RADS 3-6則較具挑戰性。總體而言,這顯示AI能有效改善病人對乳房影像報告的理解,促進以病人為中心的護理。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT將放射學報告翻譯成易懂語言,供患者和醫護參考。ChatGPT翻譯成功率高,且提供37%相關建議。雖有簡化,但更詳細提示可改進。與GPT-4比較,顯示報告品質提升。建議臨床教育可使用大型語言模型,並有進一步改進空間。 PubMed DOI

研究比較不同影像學模式的放射學報告複雜程度,並試驗ChatGPT簡化報告至八年級閱讀水準。分析400份報告後發現,CT和MRI報告比US和XR較難。ChatGPT成功簡化報告,減少字數、提高可讀性,並降低閱讀難度。研究顯示ChatGPT在簡化放射學報告以提升患者理解上相當有效。 PubMed DOI

研究評估了ChatGPT生成的簡化放射學報告品質,並探討類似模型在簡化醫學文本上的潛力。放射科醫師認為簡化報告通常正確完整,對患者無害,但也指出了一些錯誤和可能有害的資訊。儘管ChatGPT等模型有改善患者護理的潛力,但仍需醫學專家進一步適應和監督,以確保準確性和患者安全。 PubMed DOI

這項研究評估了使用ChatGPT自動生成的醫學文本的準確性和易讀性。不同版本的磁共振成像(MRI)結果被創建並由醫學專業人員和患者評估。報告被發現一致地準確且易於理解,簡化版本對患者來說更容易理解。儘管簡化的報告有幫助,但並不能取代專家和患者之間進行詳細討論的必要性。 PubMed DOI

研究發現ChatGPT在生成攝護腺癌病人MRI報告總結方面表現優秀,但醫師對其潛在危害和報告質量不太滿意。未來需進一步研究提升ChatGPT在放射學報告總結能力,並探討醫師對AI總結的信任因素。 PubMed DOI

研究使用ChatGPT-3.5簡化放射學報告,讓醫護人員和病人更易懂。測試九份報告,得出七個問題,由八位放射科醫師評估。ChatGPT-3.5成功簡化報告,易懂又完整。但印地語翻譯不適合病人溝通。總之,ChatGPT-3.5有助於改善醫療溝通和決策。 PubMed DOI

研究發現BARD在簡化放射學報告方面表現最好,易讀且易懂。ChatGPT-4和Microsoft Copilot也表現不錯。然而,緊急情況下的建議準確性有待改進。整合人工智慧到放射學溝通可增進患者參與,但仍需進一步提升。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

這項研究評估了ChatGPT-3.5在生成乳房超音波報告的BI-RADS分類的有效性,目的是提升醫療診斷的準確性和可解釋性。研究分析了131名患者的報告,並將AI生成的結果與57位醫生的報告進行比較。結果顯示,雖然AI在結構和清晰度上表現良好,但在BI-RADS分類準確性和惡性診斷上仍需改進。研究也探討了「思考鏈」方法,顯示AI在模擬臨床決策過程中的潛力,整體而言,ChatGPT-3.5對乳房超音波評估的診斷結果有助益。 PubMed DOI

這項研究評估了ChatGPT-4和ChatGPT-4o在乳腺癌影像報告及BI-RADS分數生成的有效性。研究使用了77張來自radiopaedia.org的影像,包含乳房X光和超音波,並在不同會議中進行評估以避免偏見。結果顯示,兩個模型在BI-RADS評分的準確率為66.2%,在BI-RADS 5案例中表現最佳(ChatGPT-4為84.4%,ChatGPT-4o為88.9%)。不過,它們在BI-RADS 1-3案例中常常給予過高的嚴重性評分,顯示目前大型語言模型在乳腺影像評估上的局限性,需進一步研究才能整合進臨床實踐。 PubMed DOI