原始文章

這項研究評估了GPT-4在創建針對患者友好的介入放射學教育材料的能力。研究人員回顧了10個程序,並生成通俗易懂的說明,這些說明由臨床醫師和非臨床評估者評估。結果顯示,大多數說明被認為適當,特定程序如腹腔穿刺和透析導管放置獲得高評價,但動脈栓塞的說明則評價較低。可讀性評估顯示,GPT-4的說明更易理解,顯示其在提升健康素養和患者教育方面的潛力。 PubMed DOI


站上相關主題文章列表

研究比較GPT-3和GPT-4在放射學病人教育上的效果,結果顯示兩者都提供準確的答案,但GPT-4稍微更優。建議這些模型可用於放射學病人教育,但也要留意可能的限制。 PubMed DOI

研究發現,比較放射科醫師和GPT-4 AI生成的放射學報告,發現兩者在質量和內容上相當,但AI報告更為簡潔,且結構稍有不同。這顯示GPT-4可能是一個可靠的工具,有助於提升臨床效率和溝通。然而,仍需解決道德問題和限制,以確保安全實施。 PubMed DOI

研究發現使用GPT-4簡化手術同意書有助提升病人理解。簡化後的表格易讀且符合美國人閱讀水準,得到專家認可。GPT-4生成各種手術同意書,閱讀水準達六年級,獲高評分。這種人工智慧與人類合作展現潛力,可改善病人溝通及應對健康識字差異。 PubMed DOI

研究發現,使用GPT-4將心血管磁共振(CMR)報告轉換為普通用語後,患者更易理解。放射科醫師高度評價GPT-4報告的正確性、完整性,並認為其無潛在危害。GPT-4有效簡化複雜CMR報告,讓患者更易理解,同時保持精確性和完整性。 PubMed DOI

研究評估符合HIPAA標準的GPT-4在急診放射學報告中的效用。人工智慧在辨識重要發現方面表現良好,但仍需人類監督。總結來說,AI對於辨識病人放射學報告中的重要資訊有幫助,但人類的角色仍然不可或缺。 PubMed DOI

研究評估了ChatGPT製作的放射學教育手冊對病患的準確性和可靠性。結果顯示30%的手冊有錯誤,如缺少鎮靜和併發症資訊。儘管主題一致,但使用者和程序間仍有不一致。ChatGPT的手冊有臨床應用價值,但需要改進以提高正確性和一致性。 PubMed DOI

研究使用ChatGPT簡化放射學教育資料,易讀性提升但可信度下降。建議需人工審查及進一步發展,平衡易讀性與可靠性。 PubMed DOI

這項研究評估了ChatGPT-4o在模擬歐洲介入放射學委員會(EBIR)考試的表現,正確率達67.0%。GPT-4o還為醫學生和EBIR考生生成不同難度的考題。四位參與者的表現顯示,醫學生在學生級別考題得分46.0%,EBIR持有者在學生級別得74.0%。所有參與者對學生級別考題的正確回答率在82.0%至92.0%之間,顯示其訓練效果良好,且僅有0.3%的考題被認為不合理。總體來看,GPT-4o在模擬EBIR考試及生成考題方面表現出色。 PubMed DOI

人工智慧(AI)在醫療,特別是放射學的發展,正帶來重大變革,提升診斷準確性和病人參與度。大型語言模型(LLMs),如GPT-4,能協助撰寫和總結放射報告,支持鑑別診斷,並建議基於證據的治療方案。本文探討了GPT-4在提升診斷精確度和報告效率的應用,同時也提到實施AI技術所面臨的倫理和隱私挑戰,強調需謹慎監督和遵循法規。最終,這些技術有望改善病人照護和臨床研究。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI